Es wirkt mühelos, wenn ein KI-Chatbot in Sekundenschnelle antwortet. Doch was wir sehen, ist nur die ruhige Oberfläche eines gewaltigen Geflechts aus Arbeit, Daten, Geld und Verantwortung. Unter der glatten Nutzeroberfläche steckt menschliche Arbeit – oft unsichtbar, prekär und voller Fragen zu KI und Ethik.


Arbeitsbedingungen im Hintergrund

Viele Daten, auf denen KI-Modelle wie ChatGPT oder Meta beruhen, werden manuell aufbereitet – von Menschen, häufig in Ländern des Globalen Südens. Sie lesen, bewerten und «labeln» Texte, damit Maschinen darauf trainiert werden können, zwischen Hassrede und neutraler, zugewandter Sprache zu unterscheiden. Eine unsichtbare Schnittstelle von KI und Ethik, die selten thematisiert wird.


OpenAI beispielsweise ließ Passagen mit extremen Inhalten von kenianischen Arbeiter:innen prüfen – für Löhne von unter zwei US-Dollar pro Stunde. Studien zeigen ähnliche Muster in Kenia, Venezuela oder Nordafrika:


🚷 unregulierte Verträge


🚷 unregelmäßige Bezahlung


🚷 fehlender Arbeitsschutz


🚷 psychische Belastung durch den Kontakt mit verstörendem Material


Wissenschaftliche Untersuchungen betonen zudem: Im Aufbau von KI-Systemen wird die mühsame, oft belastende Label-Arbeit systematisch übersehen und unterbewertet. Sie gilt als Hilfstätigkeit, obwohl ohne sie die Qualität moderner Sprachmodelle massiv leiden würde. Wer KI nutzt, sollte wissen: Hinter jeder scheinbar «intelligenten» Antwort stehen Menschen, die diese Arbeit ermöglicht haben – oft unter Bedingungen, die wir in Europa nie akzeptieren würden.


💭 Denkanstoß:

Wenn du mit einer KI sprichst, denkst du daran, welche Hände im Hintergrund ihre Basisarbeit leisten?


KI Ethik vs. Wirtschaftlichkeit

Große Tech-Unternehmen setzen auf Effizienz, Skalierbarkeit und Wachstum. Ethik steht zwar in Leitbildern, verliert aber, sobald sie die Profitabilität bremst. Ethik-Komitees werden aufgelöst, sobald ihre Empfehlungen unbequem sind. Ein bekanntes Beispiel ist Google, das 2019 sein externes Ethics Advisory Board (ATEAC) nur eine Woche nach seiner Gründung wieder auslöste, als öffentlich und intern Kritik an Besetzung und Einfluss laut wurde.


Auch in der Wissenschaft spielen ökonomische Zwänge eine Rolle. Drittmittel, Sponsoring und Kooperationen mit der Industrie beeinflussen die Themenwahl und die Veröffentlichungspraxis. Damit geraten auch akademische Projekte in die Logik von Märkten, selbst wenn sie mit ethischem Anspruch starten.


Das Spannungsfeld ist deutlich: Ethik lässt sich leicht proklamieren, aber schwer durchhalten, wenn Kosten- und Wettbewerbsdruck hoch sind. Hier zeigt sich der Kernkonflikt von KI und Ethik: Profitabilität dominiert, während ethische Standards an den Rand gedrängt werden.


💭Frage an dich:

Was wiegt für dich schwerer – Effizienz oder Verantwortung?


Unterschiedliche Ansätze: ChatGPT vs. ETH-Modelle

Es gibt inzwischen sehr unterschiedliche Ansätze in der Entwicklung von KI-Modellen – von kommerziell geschlossenen Systemen bis hin zu offenen Forschungsinitiativen. Ein zentrales Unterscheidungsmerkmal liegt in den Bemühungen um Transparenz und Datensicherheit. Genau darüber habe ich bereits im Artikel Digitale Sicherheit und Vertrauen: Die Grenzen der DSGVO geschrieben.


ChatGPT (OpenAI)

🔒Proprietär

🔒kommerziell ausgerichtet

🔒trainiert auf riesigen Datenmengen mit globaler Infrastruktur

🔒Transparenz über Trainingsdaten und Labeling bleibt stark eingeschränkt.


ETH-Modell Apertus

🔓Open Source

🔓transparente Dokumentation der Architektur und Datenquellen

🔓Vielfalt an Sprachen

🔓Einhaltung europäischer Transparenzpflichten und Schweizer Datenschutzgesetze.


Berichte aus Zürich zeigen zudem: Die ETH verfolgt einen offenen Ansatz, der KI und Ethik bewusst miteinander verbindet – durch Transparenz, Kontextualisierung und öffentliche Überprüfbarkeit. Kontextualisierung bedeutet hier: KI-Systeme werden nicht isoliert betrachtet, sondern in ihrem konkreten Umfeld, mit den beteiligten Menschen und den gesellschaftlichen Folgen.

Ziel ist es nicht allein, leistungsfähige Modelle zu entwickeln, sondern sie sinnvoll in den Alltag einzubetten – etwa in Schulen oder Universitäten. Lehrende und Lernende werden dabei begleitet, reflektieren Chancen und Grenzen gemeinsam und lernen so, KI nicht blind zu vertrauen, sondern kritisch und bewusst einzusetzen.


💭Denkanstoß:

Was würde es in deinem Alltag verändern, wenn KI-Projekte offen dokumentiert und überprüfbar wären?


Das zentrale Dilemma: Wer trägt die Verantwortung?

Unternehmen delegieren Verantwortung oft an Nutzer:innen – in AGBs versteckt.


Forschende verweisen auf die Politik, die die Rahmenbedingungen setzen müsse.


Politik wiederum hinkt technologischen Entwicklungen meist hinterher.


Doch echte Verantwortung verlangt, dass wir alle aktiv werden:
• Führungskräfte müssen Transparenz fördern und Arbeitsbedingungen im Blick behalten.
• Gesellschaft braucht eine klare Stimme: für faire Arbeit, für ethische Standards, für Governance – also Strukturen, in denen Verantwortung, Transparenz und Werte verbindlich geregelt sind – und die über bloße Effizienz hinausgehen.
• Und wir alle sollten uns nicht länger von glänzenden Interfaces blenden lassen, sondern die unsichtbaren Schichten im Hintergrund wahrnehmen und uns überlegen, welche Maßnahmen für uns persönlich möglich und wichtig sind.


💭Frage:

Wie würdest du Verantwortung definieren – als Pflicht, als Haltung oder als tägliche Praxis?


Mein persönliches Dilemma

Bei Lebensmitteln haben mein Mann und ich über Jahre nach Wegen gesucht, die unserem Anspruch an Ethik und Fairness entsprechen: regional, saisonal, bio. Produkte wie Avocados oder Nüsse aus dem Süden kaufen wir nur dann, wenn Herkunft und faire Entlohnung klar nachvollziehbar sind. Und wir investieren bewusst mehr Geld dafür.


Bei KI ist das im Moment unmöglich. Ich habe keine Möglichkeit zu prüfen, unter welchen Bedingungen Daten bewertet wurden oder wer davon profitiert. Ich kann nicht sicherstellen, dass Menschen fair bezahlt wurden. Diese Intransparenz ist für mich eine ethische Schwierigkeit, die im Moment ungelöst bleibt.


Doch seitdem ich mich mit den Hintergründen beschäftige und sehe, dass im Vordergrund zwar KI und Ethik transportiert und die Antworten der KI – eben weil sie durch die Arbeit von Menschen so trainiert wird – zugewandt und empathisch sind, beschäftige ich mich auch damit, welche Alternativen ich finden kann, um auch in diesem Bereich ethisch handeln zu können.


Sobald ich darüber mehr herausgefunden habe, lasse ich dich darüber wissen. Es kann länger dauern.


💭Denkanstoß:

Welche ethischen Kompromisse gehst du in deinem Alltag ein – und wo ziehst du eine klare Grenze?

Fazit

KI ist kein neutrales Werkzeug. Sie ist eingebettet in Strukturen von Arbeit, Wirtschaft und Macht. Wer nur die glatte Oberfläche sieht, verkennt die Bedingungen dahinter. Wer über KI und Ethik spricht, darf nicht nur an technische Systeme denken, sondern muss die Menschen und Arbeitsbedingungen im Hintergrund mit einbeziehen.


Deshalb braucht es ein bewusstes Hinschauen. Damit KI nicht nur leistungsfähig ist, sondern auch fair, transparent und würdig genutzt werden kann.

Hier kannst du weiterlesen:

📚Über die Arbeitsbedingungen der Menschen, die labeln

📚Hier sprechen die betroffenen Menschen selbst

Was bedeutet „KI und Ethik“ konkret?

Es geht darum, wie Künstliche Intelligenz entwickelt, eingesetzt und reguliert wird – und welche Werte dabei gelten. Dazu gehören Arbeitsbedingungen, Datenschutz, Transparenz, Verantwortung und gesellschaftliche Folgen.

Wer arbeitet eigentlich im Hintergrund von KI?

Hinter vielen Systemen stehen Datenarbeiter:innen, die Inhalte bewerten, labeln und moderieren – häufig in prekären Jobs, etwa in Kenia oder Venezuela. Sie leisten die Basisarbeit, ohne die KI nicht funktionieren würde.

Worin unterscheiden sich kommerzielle KI-Modelle wie ChatGPT von ETH-Projekten?

ChatGPT ist proprietär und auf Profitabilität ausgerichtet. ETH-Modelle wie Apertus setzen dagegen auf Open Source, Transparenz und gesellschaftliche Verantwortung. Damit versuchen sie, Missbrauch durch Offenheit zu begrenzen.

Warum ist Transparenz so wichtig für KI und Ethik?


Weil nur nachvollziehbare Systeme überprüft und kritisch begleitet werden können. Geschlossene Modelle bergen das Risiko von Intransparenz und Machtmissbrauch, während offene Projekte gesellschaftliche Kontrolle ermöglichen.

Was kann ich als Nutzer:in zu KI und Ethik beitragen?


Indem du kritisch bleibst: Welche Tools nutzt du? Wem gehören die Daten? Und wie gehst du mit deinen eigenen Daten um? Bewusstes Fragen und reflektierte Nutzung sind Teil einer verantwortungsvollen Haltung gegenüber KI.

Bildquelle: shutterstock_384984838

Schreibe einen Kommentar

Your email address will not be published. Required fields are marked

  1. Ein sehr wichtiges Thema! Danke liebe Renata, dass DU Dich damit befasst und Deine Erkenntnisse teilst.

    Ich hoffe, dass es ähnlich wie bei den Browsern, wo es ja auch Alternativen zu Google gibt, die sich der Ethik und wichtigen Projekten verschreiben, wie z.B. ecosia, bald auch bei der KI allgemein zugängliche Angebote geben wird, die weniger kommerziellen Interessen als eher dem Menschen verpflichtet sind.

    Ich freue mich über alle weitern Erkenntnisse zu diesem Thema, die Du mit uns teilst. DANKE!

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}