Die rasante Entwicklung der künstlichen Intelligenz (KI) verändert viele Lebensbereiche. Während KI viele Chancen bietet, birgt sie auch erhebliche Gefahren – insbesondere für die Gehörlosen-Community. Eine der besorgniserregendsten Entwicklungen ist die Fähigkeit von KI, Gebärdensprache-Videos zu manipulieren. Ähnlich wie bei den sogenannten « Deepfakes », die gefälschte Videos von sprechenden Menschen erzeugen, können KI-Systeme nun auch Gebärdensprache nachahmen und manipulieren.
Diese Technologie ermöglicht es, das Aussehen und die Bewegungen gebärdender Personen zu verändern oder komplett künstliche Gebärdensprache-Videos zu erstellen, die wie echte Videos wirken. Das stellt eine ernsthafte Gefahr für die Gehörlosen-Community dar, da Gebärdensprache nicht nur ein Kommunikationsmittel ist, sondern auch ein zentraler Bestandteil ihrer kulturellen Identität.
Was kann KI mit Gebärdensprache machen?
Moderne KI-Systeme sind in der Lage:
- Das Aussehen von gebärdenden Personen zu verändern: Bewegungen, Mimik und Gestik können angepasst oder gefälscht werden.
- Künstliche Videos zu erstellen: Diese Videos sehen täuschend echt aus, sind aber komplett synthetisch.
- Bewegungen und Gebärden zu manipulieren: Eine echte Aufnahme kann durch KI verändert werden, sodass die gebärdende Person scheinbar etwas anderes sagt.
Diese Fähigkeiten können für positive Zwecke eingesetzt werden, etwa um automatisierte Übersetzungen zu erstellen. Doch sie bergen auch Gefahren, die nicht unterschätzt werden dürfen.
Besondere Gefährdung der Gehörlosen-Community
Die Gehörlosen-Community ist von dieser Entwicklung besonders betroffen, da Gebärdensprache ihre primäre Kommunikationsform ist. Die potenziellen Risiken reichen von Fehlinformationen bis hin zu Identitätsdiebstahl. Expert:innen wie Dr. Julie A. Hochgesang und Dr. Miako Villanueva von der Gallaudet University betonen, dass die Gehörlosen-Community bei der Entwicklung solcher Technologien unbedingt einbezogen werden muss, um Missbrauch zu verhindern.
Konkrete Gefahren:
- Fehlinformationen in wichtigen Lebensbereichen
Manipulierte Gebärdensprach-Videos können falsche oder irreführende Informationen verbreiten, insbesondere in sensiblen Bereichen wie:- Medizin: Gefälschte Gesundheitsinformationen könnten Leben gefährden.
- Recht: Manipulierte Videos könnten falsche juristische Beratung darstellen.
- Nachrichten: Falsche Informationen in Gebärdensprache könnten die Community gezielt in die Irre führen.
- Identitätsdiebstahl und Betrug
KI-Systeme könnten bekannte Gebärdensprachnutzer:innen imitieren, um:- Vertrauen zu erschleichen: Betrüger könnten sich als bekannte Persönlichkeiten ausgeben.
- Betrug zu begehen: Gefälschte Videos könnten für betrügerische Zwecke genutzt werden.
- Falsche Nachrichten zu verbreiten: Menschen könnten absichtlich nachgeahmt werden, um falsche Botschaften zu verbreiten.
Was tut die Gehörlosen-Community dagegen?
Um den Risiken entgegenzuwirken, engagieren sich Organisationen wie die Coalition for Sign Language Equity in Technology (CoSET). Diese setzen sich dafür ein, dass die Gehörlosen-Community aktiv in die Entwicklung von KI-Technologien eingebunden wird. Ihre Forderungen umfassen:
- Transparenz: KI-Unternehmen müssen offenlegen, wie sie mit Gebärdensprache-Daten arbeiten.
- Einbeziehung der Community: Die Gehörlosen-Community muss mitentscheiden können, wie KI in der Gebärdensprache genutzt wird.
- Schutz der kulturellen Identität: Die Gebärdensprache darf nicht kommerzialisiert oder ohne Zustimmung genutzt werden.
Wie können wir uns schützen?
Die Gehörlosen-Community kann selbst Maßnahmen ergreifen, um sich vor KI-Manipulationen zu schützen. Es ist wichtig, wachsam zu bleiben und verdächtige Inhalte kritisch zu hinterfragen.
Sofortmaßnahmen für die Community:
- Vorsicht bei Gebärdensprach-Videos: Überprüfen Sie die Quelle eines Videos, bevor Sie ihm vertrauen. Achten Sie auf unnatürliche Bewegungen, die auf Manipulation hinweisen könnten.
- Gemeinsames Handeln: Melden Sie verdächtige Videos und informieren Sie Ihre Community. Teilen Sie solche Inhalte nicht ungeprüft weiter.
- Unterstützung von Schutzorganisationen: Arbeiten Sie mit Organisationen zusammen, die sich für den Schutz der Gehörlosen-Community einsetzen.
Langfristige Schutzmaßnahmen:
Die SAFE AI Task Force hat wichtige Richtlinien entwickelt, um die Risiken zu minimieren:
- Datenschutz stärken: Nutzer:innen müssen entscheiden können, ob ihre Daten für KI-Systeme verwendet werden.
- Menschliche Überprüfung: Übersetzungen durch KI sollten immer von Menschen geprüft werden, bevor sie veröffentlicht werden.
- Transparente Entwicklung: KI-Unternehmen müssen offenlegen, wie ihre Systeme funktionieren und welche Daten sie nutzen.
Forderungen der Gehörlosen-Community
Forscher:innen von der Gallaudet University betonen, dass die Gehörlosen-Community eine aktive Rolle bei der Entwicklung von KI-Technologien spielen muss. Ihre Forderungen sind:
- Verwendung von echten Daten mit Zustimmung der Community: Es darf keine Nutzung von Gebärdensprache-Daten ohne Einwilligung geben.
- Einbindung gehörloser Forscher:innen: Gehörlose Expert:innen sollten maßgeblich an der Entwicklung beteiligt sein.
- Schutz der Privatsphäre und Identität: Die kulturelle und sprachliche Identität der Gehörlosen-Community muss geschützt werden.
Fazit
Die Fortschritte der KI-Technologie bieten viele Möglichkeiten, stellen aber auch eine große Gefahr dar – besonders für die Gehörlosen-Community. Manipulierte Gebärdensprache-Videos können nicht nur Vertrauen zerstören, sondern auch ernsthafte Schäden anrichten, etwa durch die Verbreitung falscher Informationen oder Identitätsdiebstahl.
Die Gehörlosen-Community muss wachsam bleiben und sich aktiv dafür einsetzen, dass KI-Technologien sicher und fair entwickelt werden. Nur durch Zusammenarbeit, Transparenz und klare Schutzmaßnahmen kann die Authentizität der Gebärdensprache bewahrt und die Community vor den Risiken geschützt werden.
Bild von Gerd Altmann auf Pixabay

