AI

Forfærdede brugere: Samtaler med ChatGPT kan være blevet synlige for andre

ChatGPT
ChatGPT / Shutterstock
Af N. Pedersen 14. November 2025

Et teknisk problem hos OpenAI har skabt bekymring om datasikkerhed efter, at private forespørgsler til ChatGPT midlertidigt blev synlige i Googles værktøj til analyse af websøgninger.

En fejl i ChatGPT har medført, at private brugerhenvendelser kortvarigt blev synlige i Google Search Console.

Det er et analyseværktøj, som hjemmesideejere anvender til at følge trafikken på deres hjemmesider.

Fejlen betød, at visse forespørgsler, sendt til chatbotten, blev offentliggjort på en måde, der kunne kompromittere brugernes privatliv.

OpenAI har oplyst, at fejlen blev rettet, så snart den blev identificeret.

Ifølge virksomheden var det kun et lille antal forespørgsler, der blev berørt.

OpenAI forklarede, at problemet skyldtes en teknisk fejl, hvor visse brugerhenvendelser utilsigtet blev sendt til Google Search Console.

Her kunne de potentielt ses af andre med adgang til det relevante analysepanel.

Virksomheden har ikke oplyst, hvilke typer forespørgsler der blev berørt, eller hvor længe de var synlige i Google Search Console.

32-årig kvinde gifter sig med ChatGPT efter at have slået op med sin kæreste gennem tre år

Læs også: 32-årig kvinde gifter sig med ChatGPT efter at have slået op med sin kæreste gennem tre år

Ekspert peger på muligt mønster

Jason Packer, der ejer det amerikanske analysefirma Quantable, har peget på, at episoden måske afspejler en praksis fra OpenAIs side, hvor virksomheden forsøger at hente oplysninger fra Google for at forbedre chatbot-svarene.

Det er dog ikke bekræftet, at denne praksis direkte forårsagede den aktuelle fejl hos ChatGPT.

Fejlen understreger endnu en gang de udfordringer, der er forbundet med brugen af AI-chatbots i forhold til datasikkerhed.

ChatGPT og lignende teknologier har tidligere været genstand for kritik, blandt andet i forbindelse med juridiske forespørgsler om adgang til brugeres samtalehistorik og spørgsmål om behandling af personoplysninger.

OpenAI har fastholdt, at fejlen er blevet udbedret, og at det kun er et begrænset antal brugere, der har været berørt af lækagen.

Alligevel har hændelsen medført en fornyet opmærksomhed på, hvorvidt man kan forvente fuld fortrolighed, når man benytter AI-værktøjer som ChatGPT.

Flere eksperter advarer om, at man bør undgå at dele følsomme eller personlige oplysninger med denne type teknologi, netop fordi utilsigtede datalækager ikke kan udelukkes fuldstændigt.

Der arbejdes nu intenst på at forbedre standarderne for datasikkerhed hos OpenAI og ChatGPT.

OpenAI kæmper mod krav om at udlevere ChatGPT-samtaler fra 20 millioner brugere

Læs også: OpenAI kæmper mod krav om at udlevere ChatGPT-samtaler fra 20 millioner brugere

Seneste nyheder

Se flere nyheder