Har gått runt idag och ältat denna formulering i Slottners replik i DN: "AI speglar i många...

Har gått runt idag och ältat denna formulering i Slottners replik i DN:

"AI speglar i många fall mänskliga beteenden och präglas därför av de värderingar och den kultur som råder i miljön där den tränas, utvecklas och används. Om andra länder är snabbare kommer offentlig sektor vara fast med AI-teknik som inte är anpassad efter vår syn på samhället.”

Jag kan bara tolka det som att Slottner säger att “AI" tränas så att den har en syn på samhället som speglar miljön den är tillverkad i, och att det är bra om det är “vår syn”. Och dåligt om det inte är “vår syn”.

Funderingar:

* Vems syn har den "AI” som används nu av offentlig sektor, och när börjar det bli ett problem att det är någon annans syn? Borde inte det problemet uppstå dag 1?
* Vad är "vår syn” och hur står den i konflikt till den “AI” som nu används”?
* Vem är ansvarig för att avgöra huruvida vi är fast med "AI”-teknik som inte är anpassad efter “vår syn” på samhället? Bör vi bättre belysa vem som propsar på användning av “AI" som inte är anpassad efter “vår syn” på samhället?
* Om det här är ett problem, borde inte offentlig sektor vänta, innan de är fast? Och göra en ordentlig riskanalys, och planering, och allt annat som man ska göra innan man investerar medborgarnas pengar i något kostsamt?
* Är det över huvud taget önskvärt att vi har datorer som är anpassade efter en “syn” även om det är "vår syn”? (Eller kanske särskilt om det är "vår syn”)

Så många frågor.

Det känns som om Slottner avslöjar något väsentligt när han skriver så här, men jag har inte riktigt lyckats sätta fingret på vad.

https://www.dn.se/debatt/mer-ai-i-svenska-myndigheter-starker-vart-digitala-oberoende/