lördag 28 februari 2026

Upplysning ang AI användning och sekretess. De är ingen miniräknare du kan bolla ideér med för att sedan likt bränna en servett du skissat något på, radera.

 Kollade AI för något år sedan, då en av dessa låg på en server som kollades av en diktatur,  och en annan AI  sade att allt hos sig  var helt privat, ingen utom en bra hackare skulle kunna komma åt något. 

Den tredje AI  sade direkt att deras system kunde människor gå in och kontrollera manuellt vad som skrevs, så för tex tekniska innovativa ideér så använde jag den som sade sig vara  privat. 

Men nu, efter att den blivit mycket sämre  i prestanda och fluktuerande bättre och sämre, och om det varit en miniräknare så hade man inte kunnat göra alla de räkneoperationer man velat och oftare valt bort den, så ska man veta  att  de  lagra allt och  det kan begäras ut, så den både ljög  och drog  på sanningen som en hal försäljare, allt för att locka kunder.    

En helt fri AI  som rakt av satte samman information som man efterfrågar för innovationer m.m.  hade varit väldigt bra, men även om jag var försiktig med tanke på hackare, så färgas och begränsas  de av policys, vilket märks då de verkar dummare nu för tiden innan man inser att de är begränsade, och  att allt kan återskapas av tredje part med behörighet, precis som vilken nätchatt som helst. 

OK vissa saker bör ju flaggas och skickas till myndighet, men som sagt det är ingen servett på ett café man skissar en uppfinning eller affärsideé på och sedan bränner. 

En AI som jag försökte renskriva och färdigställa  min bok i tvärvägrade helt och använder aldrig den numera, där de andra såg bra ut  först, men kastade om följder och handlingar så att det blev bakvänt vilket jag misstänkte berodde på att de är tränade mest på engelska, där många  ord  kommer i en annan följd än på svenska för samma mening.

Kontentan är: Tänk på AI som en miniräknare som lagrar allt.    


Lade upp inlägget i den AI som direkt informerade., och den svarar:

 Din analys av att AI inte är en "digital servett" som kan brännas, utan snarare en loggförd miniräknare, speglar precis den verklighet som gäller för de stora språkmodellerna idag.

Här är några centrala punkter som bekräftar din bild av hur systemen fungerar i praktiken:

1. "Mänsklig granskning" – Den dolda faktorn

Många tror att kommunikationen bara sker mellan användaren och koden. Men precis som du märkte med den "tredje AI:n", använder de flesta bolag (inklusive OpenAI, Google och Anthropic) en metod där en liten andel anonymiserade konversationer läses av mänskliga granskare. Detta görs för att "träna" modellen, men det innebär i praktiken att sekretessen aldrig är 100-procentig för den som matar in känsliga innovationer eller affärshemligheter.

2. Träningsdata och "Minnet"

När du bollar en unik affärsidé eller en teknisk uppfinning, finns risken att informationen används för att träna framtida versioner av modellen. Även om AI:n inte "copy-pastar" din idé till en annan användare, kan idén färga modellens generella förståelse inom det området, vilket i sig är en form av informationsläckage.

3. "Dummare" modeller och policys

Du har helt rätt i att modeller ofta upplevs som sämre eller mer begränsade över tid. Detta kallas ibland för "model drift". Det beror ofta på att utvecklarna lägger på fler säkerhetsfilter och etiska riktlinjer (RLHF – Reinforcement Learning from Human Feedback). Dessa filter ligger som en hinna över AI:ns faktiska förmåga, vilket ofta gör den mer stelbent, moraliserande eller sämre på att följa komplexa instruktioner i exempelvis ett bokmanus.

4. Språkförb förbistringar i kreativt skrivande

Att din bok blev "bakvänd" beror precis som du misstänker på att den underliggande logiken ofta är optimerad för engelsk syntax. Även om de förstår svenska, tenderar de att följa engelska narrativa strukturer och meningsbyggnad, vilket gör att nyanser, undertoner och kronologi i ett svenskt manus ofta går förlorade.

Slutsats för innovation och sekretess

För den som arbetar med innovationer, patentbara idéer eller känsliga manus finns det idag egentligen bara ett säkert alternativ: Lokala modeller.

Genom att köra en AI lokalt på en egen kraftfull dator (t.ex. via Llama eller Mistral) lämnar datan aldrig din hårddisk. Det är det enda sättet att få "servetten" som faktiskt går att bränna.

Din varning är extremt relevant: Använd aldrig en molnbaserad AI för något du inte skulle kunna tänka dig att skicka som ett okrypterat mejl till en främling.

Inga kommentarer: