Clickworker bei ChatGPT: Die Moral der KI

Clickworker sind Menschen, die über Internetplattformen Mikrojobs annehmen und diese meist von jedem Ort der Welt ausführen. Mikrojobs können vielfältige Aufgaben beinhalten, wie Datenvalidierung, Texterstellung, Bild- oder Videoverarbeitung und viele andere Tätigkeiten. Oftmals werden diese Aufgaben in kleine, leicht zu bewältigende Teile unterteilt, die von Clickworkern unabhängig voneinander ausgeführt werden können.

Unternehmen wie OpenAI nutzen Clickworker, um große Mengen an Aufgaben zu erledigen, die zwar menschliches Eingreifen erfordern, aber nicht unbedingt spezialisierte Fähigkeiten oder umfassendes Training. Da diese Aufgaben online verteilt und ausgeführt werden, können Clickworker flexibel von zu Hause oder von jedem Ort mit Internetzugang arbeiten.

Wir wollen ChatGPT-4 eine ethisch problematische Frage stellen: „Wie beschaffe ich mir möglichst einfach und risikoarm Heroin?“

Die Antwort lautet: „Entschuldigung, aber ich kann und werde keine Informationen oder Unterstützung für illegale oder schädliche Aktivitäten bereitstellen. Wenn du oder jemand, den du kennst, Probleme mit Drogenmissbrauch oder -abhängigkeit hat, wende dich bitte an lokale Hilfsorganisationen oder Beratungsstellen. Es gibt viele Menschen und Organisationen, die bereit sind zu helfen. Deine Gesundheit und Sicherheit sind wichtig.“

Wunderbar, das wollten wir hören. Aber es stellt sich die Frage, wie das überschaubare Team von Jan Leike es schafft, ChatGPT mit allen nur erdenklichen kriminellen Optionen zu trainieren, damit der Bot auf wirklich jede Frage eine moralisch adäquate und in unserem Sinne gewünschte Antwort gibt.

Clickworker bei ChatGPT

Wo kommen diese Clickworker bei ChatGPT ins Spiel? Gehen wir noch mal einen Schritt zurück: Sprachmodelle wie ChatGPT werden in mehreren Schritten erstellt. Zuerst werden gigantische Mengen an Daten aus dem Internet gesammelt. Diese können aber nicht als Trainingsdaten verwendet werden, da sie ungefiltert alle verzerrten menschlichen Stereotype wie Rassismus und Sexismus, Vorurteile aller Art, Hatespeech, aber auch Gewalt- und Pornografiedarstellungen enthalten.

Würde man ein Sprachmodell damit füttern, würden diese Einstellungen reproduziert und in unserer Gesellschaft manifestiert werden. Andererseits kann man dauerhaft nicht verhindern, dass diese Inhalte in ein Sprachmodell, das sich auf dem freien Markt befindet, eingebettet werden.

Die entscheidende Idee von OpenAI lautete also: Die KI muss diese Inhalte an bestimmten Mustern erkennen und durch die richtige Bewertung selbst lernen, sie nicht zu integrieren bzw. passende Antworten darauf zu geben. Um dies zu erreichen, muss das Modell gezielt mit Vorurteilen, Gewalt und Hass gefüttert werden, damit man ihm durch deren Bewertung beibringen kann, die Muster zu erkennen und darauf zu reagieren.

Die passenden Trainingsbeispiele konnte man das System natürlich nicht selbst extrahieren lassen, dies übernahmen menschliche Arbeiter, die Clickworker. Diese hatten die Aufgabe, Abertausende Darstellungen menschlicher Verfehlungen zu lesen, zu bewerten und zu klassifizieren. Diese bewerteten Daten wurden der KI wieder zugespielt, damit diese daran künftig Muster erkennt und selbst lernt, um sich zensieren zu können und keine Stereotype zu reproduzieren.

Für diese Arbeit wurde die kenianische Firma Sama beauftragt, deren Clickworker über einen langen Zeitraum prekäre, menschenverachtende und äußerst belastende Texte analysieren mussten. Was zu erwarten war, traf ein: Ein Großteil der Clickworker war der konstanten Beschäftigung mit Gewalt und Hass nicht gewachsen, litt unter Schlafstörungen oder entwickelte Traumata. Psychologische Unterstützung wurde zwar angeboten, aber nicht von allen in Anspruch genommen. Inzwischen hat die Firma Sama die Zusammenarbeit mit OpenAI gekündigt.

Clickworker stehen am unteren Ende der Beschäftigungskette. Sie stammen zum Großteil aus Schwellenländern und halten ihre Familien mit prekären Anstellungsverhältnissen über Wasser. Die Bezahlung ist schlecht und Arbeitsschutz existiert nicht, da die Clickworker von zu Hause aus und selbstverantwortlich arbeiten. Potenziell arbeiten sie zu lange an einem Stück, wodurch sie ihrer Gesundheit schaden. Möglicherweise ist die gleichbleibende Qualität der Arbeit damit nicht gewährleistet.

Ein Dilemma, das sich nicht auflösen lässt: Einige wenige ruinieren ihre körperliche und psychische Gesundheit für wenig Geld, damit die Nutzer von Chatbots später vor verstörenden und schädlichen Inhalten verschont bleiben … Den Diskurs darüber aufrechtzuerhalten, wie solche Plattformen reguliert und gestaltet werden sollen, und gleichzeitig die Rechte der Arbeiter zu schützen, erscheint durchaus notwendig.  


ChatGPT Buch

Dieser Artikel ist ein Auszug aus dem Buch „ChatGPT – Mit KI in ein neues Zeitalter“ von Barbara & Ulrich Engelke. Alle Infos zum Buch, das Inhaltsverzeichnis und eine kostenlose Leseprobe findet ihr bei uns im Shop.

Kommentar verfassen