Hyppää pääsisältöön

Jane ja Aatos Erkon säätiön 1,4 miljoonan rahoitus luo huippuosaamista tekoälyn pimeän puolen hallintaan

Julkaistu 18.6.2024
Tampereen yliopisto
Abstrakti kuva, joka sisältää punaisia ja sinisiä futuristisia teknisiä elementtejä ja valoja.
EVIL-AI (”evil eye”).Kuva: Henri Pirkkalainen/MidJourney-tekoäly
Tekoälyn käyttö arjessa, työssä ja vapaa-ajalla kasvaa teknologian kehittyessä, mutta tekoälyllä on myös pimeä puolensa. Jotta tekoälyä voidaan hyödyntää turvallisesti, sen haittoja täytyy hallita.

Jane ja Aatos Erkon säätiö (JAES) on myöntänyt 1,4 miljoonan tutkimusrahoituksen Tampereen yliopiston EVIL-AI (”evil eye”) – Tekoälyagenttien negatiiviset vaikutukset ja niiden ehkäisy -hankkeeseen, jossa tutkitaan ja ehkäistään tekoälyn pimeää puolta.

Kyseessä on JAES-säätiön toisen hakukierroksen suurin avustus, 1 413 000 euroa. Rahoitus myönnettiin johtamisen ja talouden tiedekunnan tietojohtamisen professori Henri Pirkkalaiselle, ohjelmistotekniikan professori Pekka Abrahamssonille ja pelillistämisen apulaisprofessori (tenure track) Johanna Virkille. Abrahamsson ja Virkki työskentelevät Tampereen yliopiston informaatioteknologian ja viestinnän tiedekunnassa.

Työryhmä pureutuu tekoälyn haittavaikutusten, kuten epäeettisen tai rikollisen toiminnan tunnistamiseen ja ehkäisyyn sekä tekoälyn säätelyyn.

Nelivuotisen EVIL-AI (”Evil-eye”) -hankkeen keskiössä ovat tekoälyagentit (AI agents). Ne ovat tietokoneohjelmia tai järjestelmiä, jotka kykenevät tekemään itsenäisesti älykkäinä tulkittavia toimintoja tavoitellessaan tiettyä tavoitetta. 

Hankkeen tutkimuksessa ja käytännön toiminnassa tunnistetaan merkittäviä tekoälyagentteihin liittyviä riskejä ja haittoja. Hankkeen johtaja, professori Henri Pirkkalainen sanoo, että tekoälyagenttien kriittinen tarkastelu liittyy erityisesti niiden epäeettiseen ja ei-toivottuun toimintaan.

– Tekoälyagentit voidaan valjastaa huijaamaan ihmisiä, ne voivat ryhmäytyä sekä päästä vapaaksi toteuttamaan epätoivottua toimintaa. Siten niitä on vaikea pysäyttää, Pekka Abrahamsson sanoo.

Hankkeen tavoitteena on tunnistaa ja ehkäistä tekoälyagenttien negatiivisia vaikutuksia.

– Pahatahtoiset tekoälygentit voivat uhata ketä tahansa meistä. Lähitulevaisuudessa arjessamme toimivilla tekoälyagenteilla voi olla esimerkiksi ihmistä tai lemmikkiä muistuttava fyysinen ilmentymä, ja niillä voi olla ihmistä muistuttavia käyttäytymispiirteitä, Johanna Virkki kertoo. 

Henri Pirkkalaisen tutkimusryhmä tutkii tietojärjestelmien käyttöönottoa ja teknologian käytön pimeää puolta. EVIL-AI-hankkeella vankistetaan Tampereen yliopiston monitieteisen Gameful Realities-tutkimuskeskuksen tiedekuntien välistä yhteistyötä. Pirkkalainen toimii tutkimuskeskuksen varajohtajana.
Kuva: Jonne Renvall/Tampereen yliopisto

EVIL-AI -hanke tutkii erilaisia pahatahtoisen tekoälyn ilmentymiä kuten keskustelubotteja, palvelurobotteja ja metaversumin avatareja. 

– Tarkastelemme erityisesti erilaisia ihmisen ja tekoälyagenttien välisiä kohtaamisia virtuaalitodellisuudesta fyysiseen maailmaan. Tutkimme pahantahtoisuuden kehittymistä tekoälyagenteissa sekä erilaisia riskiskenaarioita tekoälyagenttien valjastamisesta pahantahtoisiksi. Näihin lukeutuu tietojen kalastelu ja väärien tietojen levittäminen, Pirkkalainen toteaa.

Hanke on merkittävä tutkimusavaus, joka tähtää monialaiseen huippututkimukseen. 

– Tavoitteena on perustaa maailman johtava monitieteinen tutkimusyksikkö, joka keskittyy tekoälyn pimeään puoleen Tampereen yliopiston johdolla, Henri Pirkkalainen sanoo.

Johanna Virkin tutkimusryhmä on keskittynyt teknologian rooliin mahdollistajana. Ryhmä kehittää esimerkiksi uudenlaisia ratkaisuja puhetta tukevaan ja korvaavaan kommunikointiin sekä itsenäisen asumisen mahdollistamiseen. Ryhmä on osa Gameful Realities -tutkimuskeskusta.
Kuva: Virpi Andersin

EVIL-AI -hanke tarkastelee, mitä tapahtuu, kun pahatahtoinen tekoäly pääsee karkaamaan internetiin. AI agentit haluavat jotakin käyttäjältään: mitä tapahtuu, kun ihminen kohtaa erilaisia ilmentymiä pahatahtoisesta tekoälystä? 

Tutkimuksen johtajien mukaan ei riitä, että uhkiin reagoidaan vain niiden ilmetessä.

– Monitieteinen tekoälyagenttien pimeä puolta selvittävä ja taklaava tutkimus on välttämätön askel. Se on ainut varteenotettava tapa hahmottaa tutkimuksesta kumpuava riskikenttä ja vaikuttaa proaktiivisesti tekoälyagenttien pimeän puolen ehkäisemiseen, sanoo Pekka Abrahamsson.

Hankkeeseen avataan kesällä nelivuotisen post doc -tutkijan haku Pirkkalaisen tiimiin (tietojärjestelmätiede). 

– Tässä on upea mahdollisuus tekoälyn pimeän puolen tutkimuksen erikoistumiseen. Odotamme huippuhakijoita tähän tärkeään tutkimusavaukseen, Pirkkalainen toteaa.

Professori Pekka Abrahamsson on ketterän ohjelmistokehityksentutkimuksen pioneeri maailmalla ja viimeiset vuodet hän on keskittynyt tekoälyn erilaisiin käytännön sovellutuksiin. Vuonna 2021 hänet rankattiin kautta aikain parhaimpaan 1%:iin maailmassa omalla tutkimusalueellaan.
Kuva: Teemu Rahikka, Jyväskylän yliopiston kuva-arkisto

***

JAES-säätiön toisen kierroksen myönnöt painottuivat tekniikan aloille, joille myönnettiin 5,1 miljoonaa euroa kahdeksalle hankkeelle.

Yhteyshenkilöt

Professori Henri Pirkkalainen, 050 437 1567, henri.pirkkalainen [at] tuni.fi (henri[dot]pirkkalainen[at]tuni[dot]fi) 

Professori Pekka Abrahamsson, 040 541 5929, pekka.abrahamsson [at] tuni.fi (pekka[dot]abrahamsson[at]tuni[dot]fi) 

Apulaisprofessori (tenure track) Johanna Virkki, 040 849 0618, johanna.virkki [at] tuni.fi (johanna[dot]virkki[at]tuni[dot]fi)