Digitalisaatio etenee henkilöstöpalveluyrityksissä ja tekoälyn käyttö rekrytoinnin apuna yleistyy.
Henkilöstöpalveluyrityksissä on suuria määriä tietoja aiemmin tapahtuneista rekrytoinneista ja niiden pohjalta isostakin hakijajoukosta löytyy sopivimmat ehdokkaat.
Nämä algoritmit laittavat hakijat järjestykseen. Tekoälyohjelmat oppivat sen, mitä niille opetetaan
Esimerkiksi Suomen suurimmassa henkilöstöpalveluyrityksessä Baronassa tekoäly on opetettu seulomaan hyvät akanoista vertailemalla noin 700 000 ansioluetteloa ja tehtyjä valintoja.

– Meille on kertynyt paljon tietoa siitä, minkälaisilla CV:llä ihmiset ovat työllistyneet. Nähin tietoihin perustuen meidän algoritmi on oppinut, millaisin perustein mihinkin paikkaan voi päästä, kertoo teknologiajohtaja Kirsi Louhelainen Barona Technologies Oy:stä.
Tekoäly ei tee valintoja, vaan sen avustaa rekrytointeja, Kirsi Louhelainen tähdentää ja jatkaa:
– Tekoäly oppii vain sen, mitä sille opetetaan. CV:n lisäksi tekoäly voi myös ottaa huomioon hakijan työpaikkaan liittyviä toiveita. Rekrytoija voi puolestaan hyödyntää myös tavanomaisia hakuehtoja tai päättää olla käyttämättä tekoälyn suosituksia.
”Tekoäly automatisoi hylkäämisen”
Tekoälyn käyttö on tehokasta isojen hakijamäärien valikoinnissa, mutta mitkä asiat vaikuttavat päätöksiin?
Tutkijat ovat huolestuneita taustamateriaaliin liittyvistä riskeistä.
Syrjintä saatta siirtyä tekoälyyn, koska algoritmit perustuvat aiemmin tehtyihin henkilövalintoihin ja asenteisiin.
Virheet tai vinoutunut tapa niputtaa asioita voivat estää pääsyn työhaastatteluun, eikä oikaisumahdollisuutta ole. Arto Laitinen
Tampereen yliopiston filosfian professori Arto Lahtinen seuraa tekoälyn ja robotiikan kehitystä eettisestä näkökulmasta.
– Tekoäly automatisoi hakemuksen hylkäämisen. Tekoälyn käyttö henkilövalinnoissa ei synnytä syrjintäongelmaa, mutta pahimmassa tapauksessa se saattaa sementoida syrjinnän ja tehdä siitä entistä jäykemmän, hän sanoo.
”Nyt päätetään, mitä automatisoidaan”
Tekonologiajohtaja Kirsi Louhelaisen mielestä on virhekuvitelma, että tekoälyn tarvitsisi automatisoida päätöksentekoa.
– Barona Technologiesissa näemme tekoälyn ennemminkin “tukiälynä” – se ei pudota tai suodata ketään pois, mutta tarjoaa tehokkaita apuvälineitä rekrytoijalle.
– Myös EU:n uusi tietosuojalaki, GDPR, nostaa esiin automaattisen päätöksenteon riskit ja vaatii, että asiakkaalla on oikeus olla joutumatta automaattisen päätöksenteon kohteeksi. Työnhakijan ei siis tarvitse pelätä, että järjestelmä pudottaisi hakijan automaattisesti, Louhelainen sanoo.
– Juuri nyt on se hetki, jolloin teemme valintoja siitä, miten tekoälyä hyödynnämme. Kukaan ei pakota automatisoimaan kaikkea, vaan voimme valita käyttää tekoälyä tukemaan ihmisen päätöksentekoa ja automatisoimaan mekaanisempia tehtäviä.
Väärät vastaavuudet vaarana
Yhdysvalloissa tutkijat ovat raportoineet siitä, miten algoritmiperusteinen valinta kohtelee huono-osaisia. Esimerkiksi nimi, asuinpaikka tai maksuhäiriöt saattavat pudottaa hakijan mahdollisuuksia tulla valituksi.
Kirsi Louhelaisen mukaan vääristymien vaara on tiedostettu.
– Ennen kuin mitään dataa voidaan käyttää, se pitää puhdistaa. Eli meidän on pidettävä huoli siitä, että siinä ei ole sellaisia aineksia, jotka johtaisivat vääränlaisiin tuloksiin tai vääränlaisiin korrelaatioihin.
Kukaan ei pakota automatisoimaan kaikkea, vaan voimme valita käyttää tekoälyä tukemaan ihmisen päätöksentekoa ja automatisoimaan mekaanisempia tehtäviä. Kirsi Louhelainen
Jos osoitetiedot olisivat valintaperusteina, voisi käydä vaikka yhtä hassusti, kuin leikkimieleisessä, pienellä aineistolla tehdyssä kokeilussa.
– Kun testidatasta ei oltu poistettu osoitteita, löytyi heikko korrelaatio siihen, että tietynnumeroisessa asunnossa asuvat ihmiset työllistyivät hyvin Python-koodareiksi, Louhelainen kertoo.
– Korrelaatioita voi löytää mistä tahansa, erityisesti jos dataa on vähän ja tästä syystä data pitää käsitellä.
– Me poistamme osoitteen, nimen, henkilötiedot, sukupuolen ja iän väärien korrelaatioiden välttämiseksi. Työnhakijan muut CV:ssä ilmoittamat tiedot ovat tärkeimmät, Kirsi Louhelainen sanoo.
Kuka teki mitä, häh?
Työnhaussa jatkoon pääsevät ne, jotka kelpaavat koneelle. Professori Arto Laitinen puhuu mustan laatikon ongelmasta.
– Virheet tai vinoutunut tapa niputtaa asioita voivat estää pääsyn työhaastatteluun, eikä oikaisumahdollisuutta ole. Saattaa olla, että edes ohjelmoijat eivät tiedä, millä perusteilla algoritmit suosituksiinsa päätyvät.
– Läpinäkyvyys puuttuu. Päädytään tuloksiin ilman että kukaan tietää, millä perusteilla niihin on päädytty.
Avoimuus ja julkisuus ovat keskeisiä sosiaalisen oikeudenmukaisuuden kannalta, Arto Laitinen muistuttaa.

Tilastollisen suuraineiston käyttö huolestuttaa myös kansainvälisesti. Helsingin Sanomat esitteli äskettäin yhdysvaltalaisen matemaatikon Cathy O'Neilin maalailemaa uhkakuvaa amerikkalaisesta tietosuojasta.
Myös Kirsi Louhelainen jakaa huolen avoimuudesta.
– On erittäin tärkeää, että läpinäkyvyyteen kiinnitetään paljon huomiota. Meillä ei tälläkään hetkellä anneta koneen tehdä yksin päätöstä sopivuudesta.
– Mustan laatikon ongelma koskee erityisesti tietyntyyppisiä algoritmeja kuten neuroverkkoja, ja tällä hetkellä tutkitaan kiivaasti sitä, miten niiden päätöksenteosta saisi lisätietoa ulos.