Koneiden tekemät päätökset yleistyvät kaikkialla. Algoritminen päätöksenteko voi vähentää virheitä ja nopeuttaa julkihallinnon prosesseja, mutta päätöksiä tekeviin koneisiin liittyy monta yhteiskunnallista ongelmaa.
Esimerkiksi rekrytointi- ja vakuutuspäätöksiä tekevien koneiden algoritmit eivät ole julkista tietoa, vaikka ne vaikuttavat ihmisten elämiin merkittävästi. Algoritmit tekevät virheitä, ja algoritmin virheet toistavat aineistojen vinoumia, kirjoittaa filosofian professori Arto Laitinen ROSE-hankkeen blogissa.
Laitinen kirjoittaa, että yhteiskunnallinen eriarvoisuus ei ole algoritmien synnyttämää, mutta algoritmit voivat tehdä eriarvoisuudesta salakavalampaa.
Koneellisten päätöksenteon käyttöönoton tarkoitus on usein hyvä: esimerkiksi sairaalan toiminnan parantaminen, parhaiden hakijoiden löytäminen rekrytointiprosessissa tai vakuutusmaksujen laskeminen oikeudenmukaisesti. Hyvään tähtäävät algoritmit kuitenkin saattavat aiheuttaa vahinkoa, jopa ”massatuhoa”, kirjoittaa Laitinen. Ongelmien torjumisessa olennaista olisi laaja avoimuusperiaate.
”Läpinäkyvyys, periaatteellinen avoimuus ja julkisuus ovat aivan keskeisiä sosiaalisen oikeudenmukaisuuden kannalta: vaikka algoritmi toimisi virheettömästi, ilman vinoumia, tämän voi tietää vain jos kyetään tietämään millä perusteella algoritmi on suosituksiinsa päätynyt”, Laitinen kirjoittaa.
Myös mitattavuuden mielekkyys saattaa olla kyseenalaista, vaikka mittarin saisi rakennettua, Laitinen muistuttaa.
ROSE eli Robotit ja hyvinvointipalvelujen tulevaisuus on monitieteinen hanke, joka tutkii, kuinka palvelurobotiikan edistyminen vaikuttaa hyvinvointipalvelujen uudistumiseen erityisesti ikääntyvän väestön tarpeisiin.