Wikipedia brugte 2 år på at bygge et system til at fange AI-skrivning. Så vendte en udvikler det på hovedet.
Det der skete var ret forudsigeligt, når man tænker over det.
Siden slutningen af 2023 har en gruppe Wikipedia-redaktører kaldet WikiProject AI Cleanup læst tusindvis af artikler, markeret de AI-genererede og skrevet ned præcis hvad der afslørede dem.
De udgav en guide på knap 15.000 ord. Konkrete mønstre fordelt på fem kategorier. Hvert et trukket fra rigtige artikler de havde fanget.
NPR dækkede den. TechCrunch kaldte den "den bedste guide til at spotte AI-skrivning."
Så læste en udvikler ved navn Siqi Chen guiden. Han så specifikke detektionsregler og byggede Humanizer, et open source-værktøj der fodrer de samme regler til Claude og omskriver AI-tekst så den ikke udløser en eneste af dem.
Guiden der blev bygget til at fange AI, bruges nu til at lære AI at lyde menneskelig.
Det er nok værd at forstå hvorfor det har betydning for dit indhold.
Detektionssystemet
Det meste "AI-detektion" er mavefornemmelse. Nogen læser et afsnit og siger "det lyder som ChatGPT."
Wikipedias redaktører gjorde det mere grundigt.
WikiProject AI Cleanup blev medstiftet af den Frankrig-baserede redaktør Ilyas Lebleu. Gruppen gennemgik over 500 artikler mistænkt for at være AI-genererede.
Ingen GPTZero. Ingen vandmærkescanning. Ingen algoritmer.
De læste. Tusindvis af timer. Og de skrev ned hvad de fandt.
Mønstrene er specifikke og tællelige. Her er dem der dukker op overalt.
Tankestreger er det nemmeste at spotte. Mennesker bruger kommaer og parenteser. AI bruger tankestreger til det hele. To per 500 ord er normalt. Seks er et rødt flag.
Oppustet sprog er næste tegn. "Står som et vidnesbyrd." "Et vendepunkt." "Understreger dets betydning." Hvis din side lyder som en museumstavle, er der noget galt.
Så er der trereglen. Tre tillægsord. Tre listepunkter. AI falder automatisk på tre fordi træningsdataen er fuld af overbevisende tekst der bruger trikolon.
Visse ord dukker op 10 gange oftere end hos mennesker. "Delve." "Tapestry." "Pivotal." "Foster." "Multifaceted." Ordene er ikke forkerte. De er bare overbrugte. På dansk ser man det med "mangefacetteret," "banebrydende" og "afgørende."
Tvangsmæssige opsummeringer er et andet tegn. "Overordnet set er betydningen af..." AI gentager hvad den lige sagde, fordi "hjælpsom" i træningsdata ofte betyder "overflødig."
Og så negative parallelismer. "Det handler ikke kun om X, det handler om Y." Lyder dybt. Siger ingenting.
Den fulde guide dækker endnu flere mønstre fordelt på fem kategorier: sprog, stil, kommunikationsartefakter, formatering og kilder. Alt dokumenteret med eksempler fra rigtige markerede artikler.
Googles E-E-A-T-ramme belønner præcis den slags erfaringsbaseret viden.
Det interessante twist
Siqi Chen bruger navnet @blader på GitHub. Han læste Wikipedias detektionsside og tænkte noget ret oplagt:
Hvis du fortæller AI hvad der afslører den, holder den op med at gøre det.
Så han byggede Humanizer. En Claude Code-skill. Gratis. MIT-licenseret. Tager et par minutter at sætte op.
Sådan virker det:
- Du peger den mod din tekst
- Den scanner for Wikipedias detektionsmønstre
- Den omskriver markerede sektioner mens meningen bevares
- Den kører en sidste gennemgang: "Hvad lyder stadig AI-genereret?" Og fikser det
Det ubehagelige er tydeligt nok. Den præcision der gør Wikipedias guide brugbar til detektion, gør den lige så brugbar til at undgå detektion.
Wikipedia udgav i praksis en "sådan undgår du at blive fanget"-guide. De pakkede den bare ikke ind sådan.
Se hvad der faktisk virker på din side.
Få din fulde sideanalyse →Før og efter
Nok snak. Her er hvad der faktisk sker.
Tag oppustet sprog. Før: "Det Statistiske Institut i Catalonien blev officielt etableret i 1989, hvilket markerede et skelsættende øjeblik i udviklingen af regional statistik i Spanien." Efter: "Det Statistiske Institut i Catalonien blev grundlagt i 1989 for at indsamle og udgive regional statistik uafhængigt af Spaniens nationale statistikkontor." Samme information. Færre ord.
Eller vage kilder. Før: "Eksperter mener den spiller en afgørende rolle i det regionale økosystem." Efter: "Floden er levested for flere endemiske fiskearter ifølge en undersøgelse fra 2019 udført af Det Kinesiske Videnskabsakademi." "Eksperter mener" betyder som regel "det fandt jeg på." En navngiven kilde med årstal betyder "jeg har gjort arbejdet."
Eller reklamesprog. Før: "Beliggende i den betagende Gonder-region i Etiopien, står Alamata Raya Kobo som en levende by med rig kulturarv og betagende naturskønhed." Efter: "Alamata Raya Kobo er en by i Gonder-regionen i Etiopien, kendt for sit ugentlige marked og sin kirke fra 1700-tallet."
Samme princip hver gang. Skær det oppustede væk. Tilføj det konkrete.
De fleste overser det her: den "fiksede" version er også bedre skrivning. Mere brugbar for læseren. Mere troværdig for Google. Mere sandsynlig at blive citeret af AI-søgemaskiner.
Detektionsmønstrene ER de dårlige skrivevanar. Fiks det ene, og du fikser det andet.
"Men gør det ikke detektion ubrugelig?"
Ikke rigtigt.
Wikipedia offentliggjorde deres ramme på en offentlig wikiside. Den ville altid blive reverse-engineered. Det var uundgåeligt.
Men se på hvad mønstrene er. Tankestreger. Oppustet sprog. Tvangsmæssige opsummeringer. Vage kilder.
Det er ikke hemmelige koder kun AI producerer. Det er dårlige skrivevanar. AI producerer dem bare i stor skala.
At fjerne mønstrene gør ikke AI svigagtig. Det gør teksten mindre irriterende at læse. En artikel uden "står som et vidnesbyrd" og "levende kulturelt tæppe" er en bedre artikel. Punktum.
Spørgsmålet var aldrig "kan vi opdage AI?"
Spørgsmålet var altid "bidrager det her indhold med noget?"
Googles helpful content system kører ikke en AI-detektor. Det vurderer om indhold har erfaring, ekspertise og originalitet. Indhold der rammer alle AI-mønstrene fejler den test. Ikke fordi det er AI. Fordi det er generisk.
Hvad det koster dig i praksis
Det her handler ikke om skrivestil. Det handler om synlighed.
Ahrefs fandt at kun 12% af AI-citerede URL'er rangerer i Googles top 10 for samme søgning. Overlapmet varierer fra 6% for ChatGPT til 29% for Perplexity.
AI-søgemaskiner vælger deres egne kilder. De foretrækker indhold der lyder som om det er skrevet af nogen der kender emnet.
Indhold der lyder som uredigeret ChatGPT-output bliver sprunget over. Af Google. Af AI-søgning. Af læseren der klikker væk efter tre sekunder.
Vi ser det i vores egne SEO-rapporter. Sider med ren, specifik tekst scorer højere på indholdskvalitet. Sider der lyder som rå AI-output scorer lavere. Hver gang.
Hver dag dit indhold lyder som AI, mister du klik til konkurrenter hvis indhold ikke gør.
To måder at fikse det på
Mulighed 1: Installer Humanizer
Hvis du bruger Claude Code, klon repoet:
git clone https://github.com/blader/humanizer.git ~/.claude/skills/humanizer
Claude Code finder det automatisk. Peg det mod dit indhold. Det kører Wikipedias mønstre som en omskrivningstjekliste.
Mulighed 2: Gør det selv
Ingen Claude Code? Her er den manuelle version. Åbn dit seneste blogindlæg.
Ctrl+F efter disse ord: "delve," "tapestry," "landscape," "foster," "moreover," "furthermore," "pivotal." Eller de danske: "mangefacetteret," "banebrydende," "afgørende." Tre eller flere hits? Teksten trænger til arbejde.
Tæl dine tankestreger. Mere end to per 500 ord betyder de fleste skal væk.
Tjek om alle lister har præcis tre punkter. Rigtig skrivning varierer rytmen.
Find alt der "står som et vidnesbyrd" eller "understreger dets betydning." Slet det. Sig hvad der faktisk betyder noget.
Slet det sidste afsnit. Hvis du ikke mister information, så lad det være slettet.
Læs de to første afsnit højt. Lyder du som en person? Eller en pressemeddelelse?
Sidste tjek. Er der en eneste specifik historie, tal eller eksempel fra dit rigtige arbejde nogen steder i teksten? Hvis ikke, fejler teksten E-E-A-T. Uanset hvad du ellers har gjort.
Mulighed 3: Lad nogen gøre det for dig
Hvis du hellere vil springe tjeklisten over, skriver vi AI-optimeret blogindhold der er gennem alle tjek inden levering. Samme mønstre, samme audit, allerede klaret.
Mønstrene ændrer sig. Princippet gør ikke.
Modeller bliver bedre til at lyde menneskelige. Wikipedias redaktører finder nye tegn. Nye værktøjer bliver bygget.
Men generisk indhold der ikke bidrager med noget, bliver ved med at blive sorteret fra. Af læsere, af Google og af AI-søgemaskiner der vælger hvad de citerer.
Løsningen er den samme som altid. Skriv om det du ved. Hav en holdning. Tag de specifikke, rodede detaljer fra dit rigtige arbejde med, dem en sprogmodel ikke kan finde på.
Hvis du bruger AI til udkast, så redigerer du mod tjeklisten til det lyder som dig.
Vores guide til indholdsstrategi dykker dybere ned i hvad der får indhold til at rangere i 2026. Vil du have indhold der allerede er gennem tjeklisten? Se vores blog-skrivepakker.
Brug for blogindhold der ikke lyder som AI?
Vi skriver AI-optimerede artikler der er gennem alle tjek på denne liste inden levering. Strategi, tekst, billeder, publicering.
Se blog-skrivepakker →



