Teknologian tuomaa muutosta on johdettava ketterästi yhteistyössä
Tekoälyjärjestelmät auttavat meitä vastaamaan tehokkaammin monenlaisiin sosiaalisiin haasteisiin esimerkiksi terveydenhuollossa, liikenteessä ja ympäristön kestävyydessä. Ne auttavat eurooppalaisia yrityksiä kilpailemaan paremmin paikallisesti ja maailmanlaajuisesti mutta myös hallituksia ennakoimaan ja vastaamaan paremmin kansalaistensa tarpeisiin.
Mutta tekoälyjärjestelmät herättävät myös uusia kysymyksiä ja mahdollisia riskejä ja siksi sekä yksityisen että julkisen sektorin pitää omaksua uusia lähestymistapoja hallitakseen näitä riskejä ja suojellakseen yksilöitä haitoilta.
Me Microsoftilla uskomme, että teknologiaa kehittävien yritysten on otettava suurempi vastuu siitä, että teknologia luo tulevaisuudessakin positiivisia mahdollisuuksia luottamusta herättävällä tavalla. Tätä varten olemme määritelleet kuusi periaatetta, jotka ohjaavat tekoälyn kehittämistä ja käyttöä: tasapuolisuus, luotettavuus ja turvallisuus, yksityisyyden suoja ja tietoturva, syrjimättömyys, läpinäkyvyys sekä vastuullisuus.
Fiksu sääntely palvelee yhteiskuntaa
Tekoälyjärjestelmät ovat luonteeltaan disruptoivia. Siksi meillä on nykytiedoillamme vain rajallinen kyky tunnistaa tällaisten järjestelmien mukanaan tuomia kielteisiä vaikutuksia. Samanaikaisesti moneen nykyiseen tekoälyjärjestelmän käyttöön voidaan jo soveltaa olemassa olevia säännöksiä. Näiden tekijöiden huomioon ottamiseksi sääntelyn olisi oltava joustava eikä staattinen. Tekoäly tulee nähdä sateenvarjokäsitteenä, ei vain yhtenä teknologiana.
Pidämme tiettyjen tekoälyjärjestelmien ja -käyttöönottojen sääntelyä väistämättömänä luotettavuuden varmistamiseksi ja ylläpitämiseksi. Olemme kuitenkin erittäin tietoisia tarpeesta edetä varovasti. On tärkeää, että tekoälyn sääntely toteutetaan huolellisesti ymmärtäen ei-toivottuja käyttäytymismalleja ja tuloksia, mutta rajoittamatta tekoälyn tai innovaation positiivisia vaikutuksia ja mahdollisuuksia.
Varovaisuudessa ei tule toisaalta mennä äärimmäisyyksiin. Viime syksynä nousi otsikoihin mm. Verohallinnon ja KELA:n automaattiseen tietojenkäsittelyyn (ATK) perustuvat järjestelmät ja uutisoinnissa annettiin välillä ymmärtää, että taustalla olisi tekoälyä ja robotteja. Näissä tapauksissa oli kuitenkin kyse sääntöpohjaisesta automaatiosta, jota on ollut käytössä jo vuosikymmeniä. Oikeusministeriö onkin aloittanut ansiokkaan työn automaattiseen päätöksentekoon liittyvien keskeisten oikeudellisten kysymysten ja sääntelytarpeiden selvittämiseksi ja korjaamiseksi.
Koska hallitukset, mukaan lukien Euroopan komissio, pohtivat, miten mahdollisimman hyvin säännellä tekoälyä, sen on kamppailtava näiden ja monien muiden vaikeiden kysymysten kanssa.
Ihmislähtöinen lähestymistapa
Tässä vaiheessa sääntelyn kehittämistä uskomme, että tiukasti ohjailevaa lainsäädäntöä todennäköisesti tehokkaampaa olisi hallintoon perustuva lähestymistapa, jossa määritellään laajat tavoitteet ja esitetään sitten prosessit, joita kehittäjien ja tekoälyjärjestelmiä soveltavien tahojen olisi noudatettava näiden tavoitteiden saavuttamiseksi parhaalla mahdollisella tavalla. Lainsäädännössä olisi sen sijaan keskityttävä järjestelmiin tai tapauksiin, jotka aiheuttavat merkittävän riskin yksilölle tai yhteiskunnalle kuten järjestelmiin, jotka voivat vaikuttaa haitallisesti ihmisten laillisiin oikeuksiin, heidän fyysiseen tai henkiseen hyvinvointiinsa tai heidän kykyynsä käyttää terveydenhuoltoa, rahoituspalveluja tai työllistymismahdollisuuksia.
Tekoälyn tulee olla ihmislähtöistä. Rohkaisemme Suomea jatkamaan tällä saralla sekä löytämään joustavasti ja sujuvasti ratkaisuja päivän polttaviin kysymyksiin mutta katsomaan myös kauaskantoisesti toimien samalla myös äänenkantajana niin EU:ssa kuin maailmalla laajemmin.