Samsung-medarbejdere har ved et uheld afsløret forretningshemmeligheder via ChatGPT
ChatGPT holder ikke på hemmeligheder. Husk derfor altid, at alt, du deler med ChatGPT, opbevares og bruges til at forbedre modellen. Samsung-medarbejdere har måttet lære denne lektie på den hårde måde, da de utilsigtet lækker fortrolige Samsung-data. Det skriver magasinet Mashable
Ved et uheld har Samsung-ansatte delt hemmelige oplysninger, mens de brugte ChatGPT til arbejdsrelateret hjælp. Samsungs halvlederdivision tillod ingeniører at anvende ChatGPT til kildekodegennemgang.
The Economist Korea skriver nu om tre separate hændelser, hvor Samsung-medarbejdere utilsigtet delte følsomme data med ChatGPT.
I ét tilfælde indsættes hemmelig kildekode i chatten for fejlkontrol. En anden medarbejder delte kode med ChatGPT for at anmode om kodeoptimering. En tredje delte en optagelse af et møde for at omdanne det til noter til en præsentation. Disse oplysninger er nu tilgængelige for ChatGPT’s forbedring.
Dette læk er et eksempel fra virkeligheden på potentielle scenarier, som eksperter i privatlivsbeskyttelse har udtrykt bekymring for. Andre scenarier inkluderer deling af fortrolige juridiske dokumenter eller medicinske oplysninger til opsummering eller analyse af lange tekster, der efterfølgende kan forbedre modellen. Eksperter advarer om, at det kan overtræde GDPR-compliance, hvilket er årsagen til, at Italien for nylig har forbudt ChatGPT.
Som reaktion herpå har Samsung straks begrænset ChatGPT’s uploadkapacitet til 1024 bytes pr. person og undersøger de involverede i lækagen.
Virksomheden overvejer også at udvikle sin egen interne AI-chatbot for at undgå fremtidige pinlige situationer. Men det er usandsynligt, at Samsung vil kunne tilbagekalde de lækede data. Ifølge ChatGPT’s datapolitik anvendes dataene til at træne deres modeller, medmindre du fravælger det. ChatGPT’s brugsvejledning advarer brugerne udtrykkeligt om ikke at dele sensitive oplysninger i samtaler.