Hvem bliver forstået — og hvem bliver ignoreret — når vi taler med maskiner? Det spørgsmål bliver mere presserende, efterhånden som flere samtaler foregår gennem algoritmer. Når kunstig intelligens bruges til at svare, rådgive og assistere, opstår en ny slags gatekeeping: den sproglige.
AI-teknologi bliver ofte omtalt som neutral, men det er en illusion. Bag hver chatbot og stemmestyret enhed ligger beslutninger, som prioriterer bestemte måder at tale på, bestemte koder og kulturelle normer.
Sproget som adgangsbillet
Det sprog, man bruger, bestemmer i stigende grad, hvilken behandling man får. I praksis fungerer AI som en slags digital receptionist: den vurderer, om du “lyder rigtig”, før den svarer ordentligt.
- Bruger du standarddansk, får du hurtige, præcise svar.
- Har du accent eller dialekt, misforstår systemet dig hyppigere.
- Skifter du mellem dansk og engelsk, som mange flersprogede brugere gør, bliver svarene inkonsekvente.
- Kommer du med slang, queer-sprog eller indforståede vendinger, risikerer du at blive censureret eller fejlfortolket.
Det handler ikke bare om teknik. Det handler om, hvilken stemme AI prioriterer — og hvem den systematisk misforstår.
Algoritmer lærer af ulighed
Træningsdata til AI er hentet fra eksisterende sprogbrug på internettet, sociale medier og databaser. Disse data er gennemsyret af eksisterende magtstrukturer. Hvide, heteroseksuelle, akademiske stemmer fylder mest. Andre stemmer — fx racialiserede, lavtlønnede, queer eller neurodivergente — bliver underrepræsenteret eller karikeret.
Det skaber en skævhed i modellen. For eksempel:
- En maskine kan reagere mere skeptisk, når en sort kvinde skriver om “raseri”, end når en hvid mand gør det.
- En besked på et minoritetssprog kan blive afvist som “uigenkendelig” eller “stødende”, selvom den er helt legitim.
- Transpersoner oplever, at AI-mekanismer nægter at bruge deres valgte navne eller pronomener.
Biasen opstår ikke kun i oversættelse eller talegenkendelse, men også i selve forståelseslogikken.
Koden der bestemmer autoritet
Hvem har skrevet reglerne for, hvad der anses som “korrekt” eller “professionelt”? Sprogmodeller kodificerer normer for høflighed, autoritet og ekspertise. I praksis betyder det, at visse former for tale automatisk tilskrives større troværdighed.
Eksempler:
- Akademisk jargon opfattes som mere valid end hverdagssprog.
- Høflig, passiv kommunikation favoriseres over direkte eller vredt sprog — selv når det vrede er berettiget.
- Spørgsmål fra kvinder bliver besvaret med andre eksempler og forklaringer end tilsvarende spørgsmål fra mænd.
Her skjuler AI ikke magtforhold — den reproducerer dem.
AI som normskaber og gatekeeper
Sprog er ikke kun kommunikation. Det er kultur, identitet og politisk strategi. Når maskiner reagerer anderledes på bestemte sprogformer, ændrer det vores måde at tale og tænke på.
- Minoriteter tilpasser deres tale for at blive forstået af algoritmer.
- Aktivister skifter strategi, fordi deres sprog bliver markeret som “ekstremt”.
- Autentisk kommunikation bliver filtreret gennem antagelser om, hvad der er “acceptabelt”.
Dette påvirker især unge, der bruger AI som personlig assistent, informationskilde og sparringspartner. En AI chat-assistent kan føles som et neutralt redskab, men den præger svarene med usynlige regler.
Fem måder AI prioriterer stemmer på
- Standardisering
Dialekter, minoritetssprog og multikulturel kodeveksling bliver ofte tolket som fejl. - Censur
Visse ord bliver automatisk filtreret, uden at konteksten vurderes — ofte med racistisk eller sex-negativ slagside. - Bias i svarvalg
Maskinen vælger typisk svar, der afspejler normative holdninger. - Afvisning af emotionelt sprog
Vrede, sorg og sarkasme bliver overset eller ignoreret. - Manglende kulturel kontekst
Referencer, metaforer og fortællinger uden for vestlig mainstream bliver misforstået eller usynliggjort.
Hvad gør vi så?
Vi skal ikke nøjes med at tale om inklusion i træningsdata. Vi skal tale om magt. Hvem definerer, hvad der tæller som viden, korrekthed og respekt? Hvem har adgang til at ændre algoritmerne?
Mulige indsatser:
- Transparens: Åbenhed om hvordan sprogsystemer vægter svar.
- Lokal tilpasning: AI skal kunne lære af flersprogede og minoriserede brugeres feedback.
- Kritisk teknologiuddannelse: Brugere skal rustes til at forstå, hvordan AI former sprog og magt.
- Aktiv flerstemmighed: Et bevidst valg om at værne om sproglig mangfoldighed.
Hvis AI skal bruges i offentlige systemer, sundhedsvæsen eller uddannelse, må vi stille krav til, hvordan den forstår og repræsenterer vores sprog.
Sproget er ikke neutralt. Det er et sted for kamp.
Når teknologien bestemmer, hvem der “lyder troværdig”, risikerer vi at gentage samfundets mest ekskluderende strukturer — nu blot pakket ind i kode.
Vi skal ikke bare spørge, hvem der bliver hørt. Vi skal spørge, hvem der bliver afbrudt.