AI Forfærdede brugere: Samtaler med ChatGPT kan være blevet synlige for andre ChatGPT / Shutterstock Af N. Pedersen 14. November 2025 ChatGPT Et teknisk problem hos OpenAI har skabt bekymring om datasikkerhed efter, at private forespørgsler til ChatGPT midlertidigt blev synlige i Googles værktøj til analyse af websøgninger. En fejl i ChatGPT har medført, at private brugerhenvendelser kortvarigt blev synlige i Google Search Console. Det er et analyseværktøj, som hjemmesideejere anvender til at følge trafikken på deres hjemmesider. Fejlen betød, at visse forespørgsler, sendt til chatbotten, blev offentliggjort på en måde, der kunne kompromittere brugernes privatliv. OpenAI har oplyst, at fejlen blev rettet, så snart den blev identificeret. Ifølge virksomheden var det kun et lille antal forespørgsler, der blev berørt. OpenAI forklarede, at problemet skyldtes en teknisk fejl, hvor visse brugerhenvendelser utilsigtet blev sendt til Google Search Console. ChatGPT søgninger dukker op i Google Search Console Her kunne de potentielt ses af andre med adgang til det relevante analysepanel. Virksomheden har ikke oplyst, hvilke typer forespørgsler der blev berørt, eller hvor længe de var synlige i Google Search Console. Læs også: Brugere overvåget: Dine private ChatGPT-samtaler i risiko for at blive solgt Ekspert peger på muligt mønster Jason Packer, der ejer det amerikanske analysefirma Quantable, har peget på, at episoden måske afspejler en praksis fra OpenAIs side, hvor virksomheden forsøger at hente oplysninger fra Google for at forbedre chatbot-svarene. Det er dog ikke bekræftet, at denne praksis direkte forårsagede den aktuelle fejl hos ChatGPT. Fejlen understreger endnu en gang de udfordringer, der er forbundet med brugen af AI-chatbots i forhold til datasikkerhed. ChatGPT og lignende teknologier har tidligere været genstand for kritik, blandt andet i forbindelse med juridiske forespørgsler om adgang til brugeres samtalehistorik og spørgsmål om behandling af personoplysninger. OpenAI har fastholdt, at fejlen er blevet udbedret, og at det kun er et begrænset antal brugere, der har været berørt af lækagen. Alligevel har hændelsen medført en fornyet opmærksomhed på, hvorvidt man kan forvente fuld fortrolighed, når man benytter AI-værktøjer som ChatGPT. Flere eksperter advarer om, at man bør undgå at dele følsomme eller personlige oplysninger med denne type teknologi, netop fordi utilsigtede datalækager ikke kan udelukkes fuldstændigt. Der arbejdes nu intenst på at forbedre standarderne for datasikkerhed hos OpenAI og ChatGPT. Læs også: Ny undersøgelse viser hvad vi bruger ChatGPT til og svaret er overraskende Læs også: Se de vilde tal: Så meget bedre er ny opdatering af ChatGPT Del artikel Hvor vil du dele? Facebook LinkedIn Email Copy link Seneste nyheder Se flere nyheder Biler Mercedes’ designchef stopper efter 30 år: Forventer AI vil tage over Gadgets Apple klar med 10 nye funktioner i AirPods Max 2: Se dem her AI Brugere overvåget: Dine private ChatGPT-samtaler i risiko for at blive solgt Biler Sker 1. januar: Her åbner 22 nye ladeparker AI AI og datacentre bruger enorme mængder strøm: Nu kan regningen havne hos dig Business Tennisstjernen Novak Djokovic investerer millioner i dansk juice