Tekoälyn käyttö on yleistynyt monessa työssä, ja tulevaisuudessa yhä suurempi osa tehtävistä saattaa tulla tehdyksi tekoälyn avustamana. Tekoälyyn liittyy kuitenkin lukuisia eettisiä kysymyksiä. Tässä artikkelissa pohditaan eettisyyteen liittyviä osaamistarpeita, jotka ovat tärkeitä tekoälyn vastuullisen kehittämisen ja hyödyntämisen kannalta.

Kirjoittaja: Heidi Myyryläinen

Mitä ovat eettiset taidot

Etiikka viittaa moraalisiin arvoihin, periaatteisiin ja käyttäytymiseen. Moraali on vähintäänkin pyrkimystä ohjata omaa käytöstään järjellä perustellen, antaen painoarvoa kaikkien niiden intresseille, joihin toiminta vaikuttaa. (Rachles & Rachles 2012)

Eettinen osaaminen on monimutkainen paletti, johon liittyy kyky asettua myötätuntoisesti toisen asemaan ja arvioida mikä on hyvää, pahaa, oikein ja väärin. Eettinen osaaminen on moraalisen vastuun ottamista eli kykyä tunnistaa eettisiä kysymyksiä ja tehdä tietoisia päätöksiä ja toimenpiteitä huomioiden sosiaaliset, taloudelliset ja ekologiset seuraukset, normit ja lainsäädäntö (Pohling ym. 2016; Wagner ym. 2020).

Miksi eettisten taitojen merkitys kasvaa tekoälyratkaisujen myötä?

Tekoälyyn liittyviä eettisiä taitoja tarvitaan monella eri tasolla ja monenlaisista rooleista käsin. Tietokoneet vaikuttavat toimintaamme. Tekoälyn kannalta tämä vaikutus voi olla vielä laajempi, koska siihen liittyy itsetuottava ominaisuus, jota voidaan käyttää oppimisessa, toimintojen automatisoimisessa ja jossain tapauksissa jopa päätöksen teossa. (Mickunas & Pilotta 2023) Tähän liittyy suuri määrä monen tasoisia eettisiä arviointeja liittyen yksilöihin ja yhteiskuntaan lyhyellä ja pitkällä aikavälillä.

OECD (2024) on kuvannut arvoperustaisia periaatteita luotettavaa tekoälyä varten. OECD:n linjaamia tekoälyn arvoperiaatteita ovat inklusiivinen kasvu, kestävä kehitys, hyvinvointi, ihmisoikeudet ja demokraattiset arvot, mukaan lukien yksityisyyden oikeus ja reiluus, läpinäkyvyys, selitettävyys ja vastuullisuus (OECD 2019, 2024). Samoin UNESCO:n (n.d.) suositus pyrkii luomaan globaalisti tunnustettua perustaa tekoälyn eettiseksi ja vastuulliseksi kehittämiseksi. EU on kehittänyt ensimmäisen lakisäätelykehikon tekoälylle, jonka avulla tekoälyn läpinäkyvyyttä ja riskejä hallitaan (European Parliament 2023). Lait ja eettiset ohjeistukset ovat tärkeitä, ihanteiden purkaminen koneälyn ymmärtämiksi atomistisiksi malleiksi onkin haastavampaa työtä. Michunas & Pilotta (2023) huomauttavat, että ihmistieteiden piirissä arvoja ei saada tiivistettyä kaikkien jakamiksi universaaleiksi arvoiksi ja rakennettua osaksi tekoälyä. Käytännössä siis kohdataan monenlaisia eettisiä haasteita, jotta tekoäly palvelee monenlaisia tarpeita reiluksi koetulla tavalla.

Esimerkiksi läpinäkyvyyteen liittyy haasteita. Yksi monista haasteista on, että kehittäjiltä vaaditaan monimutkaisen ja monikerroksellisen tietoinfrastruktuurin tuntemusta tekoälymallien kehittämiseksi ja tämä osaaminen on harvassa (McKay 2024). Tekoälyn kehittäjät kohtaavat myös monia eettisiä dilemmoja. Osa eettisyyteen liittyvistä haasteista liittyy yksityisyyden suojaan ja tietoturvaan. (OECD.AI 2024) OECD:n suosituksen mukaan tekoälytoimijoiden tulisi pystyä tarjoamaan tietoa tekoälyn kapasiteetista ja rajoituksista, vuorovaikutusmallista, lähteistä, logiikasta ja sisällöistä. Lisäksi niillä, jotka kokevat haittaa tekoälystä, tulisi olla mahdollisuus haastaa tuotokset. (OECD.AI 2024)

Tekoälyn kehittäjien osaamisesta on pulaa, mutta hyödyntäjien on vielä vaikeampaa ymmärtää tekoälyn läpinäkyvyyttä ja eettisiä periaatteita. Kuitenkin tekoälyratkaisuja soveltavien tulisi olla hyvin tietoisia tekoälyn vajaavaisuuksista ja käyttörajoituksista. Kaikki tekoälyratkaisut eivät tuo arvoa tai sovi kaikille käyttäjille samalla tavalla (Corvite ym. 2023). Tekoälyyn liittyy tahattomia tiedon vinoumia ja vääristymiä (OECD.AI 2024). Huolena on, että tekoälyä voidaan tahattomasti tai tahallisesti käyttää niin, että siitä aiheutuu haittaa ihmisille ja ympäristölle (UNESCO n.d). Tästä on olemassa esimerkkejä, missä reiluksi tarkoitetut mallit ovatkin osoittautuneet syrjiviksi (Michunas & Pilotta 2023). Automatisoitu prosessointi voi mullistaa toimialoja mutta tuoda myös merkittäviä sivuvaikutuksia. Pahimmillaan ihmisten, tai joidenkin ihmisryhmien, toimijuus ohenee. (OECD.AI 2024)

Tietopohja ja sen säännöt ja tekniikat ovat alun perin ihmisen tuottamia ja suurista tietomassoista saattaa syntyä kuva siitä, että tieto olisi objektiivista, vaikka sen tietopohjan vaiheisiin liittyy valintoja. (Michunas & Pilotta 2023) Tekoälyn käyttöön tarvitaan taitoja, jotka kykenevät näkemään syvempiä juurisyitä ja havaitsemaan ajoissa sellaisia vinoumia, jotka syrjivät tai vaikuttavat muuten epäeettisesti (Shanley ym. 2024). Lisäksi kun opitaan valtavista tietomassoista, tiedon luonteen takia jotain jää kuitenkin aina huomioimatta. Ihmisen arviointia tarvitaan siis jatkuvasti. Tieto on aina suhteutettava siihen, miten se on hankittu, mistä se on hankittu ja millaisia väliin tulevia muuttujia ja vaikuttimia on jäänyt tarkastelematta.

Kokemuksen ja vaikutusten ymmärtäminen on tärkeää

Tekoälyn eettisessä kehittämisessä on tärkeää tuntea hyvin tekoälyn rajoitteita ja hallita riskejä. Samalla on oleellista ymmärtää tarpeita ja kokemuksia syvällisesti. Michunas & Pilotta (2023) ehdottavat, että tekoälyn ymmärtämiseen voisi soveltaa enemmän fenomenologista suuntausta. Heidän mukaansa kokemusta ymmärtävään tekoälyyn tarvitaan ymmärrystä merkityksistä, merkityksellistämisestä, ymmärtämisestä ja metakognitiosta.

Eettistä osaamista tarvitaan myös siihen, että tekoälyn inhimillisiä, monitasoisia vaikutuksia ymmärrettäisiin enemmän. Michunas & Pilotta (2023) muistuttavat, että tekoälytuotteisiin liittyy aina kieleen liittyvää valtaa. Tekoälyohjelmat ovat pohjimmiltaan erilaisia kieliä, joita ihmisten tulee opetella. Michunas & Pilotta (2023) kuvailevat uhkakuvaa, jossa ihmiset omaksuvat tekoälyn luomat, atomistiseen maailmankuvaan perustuvat ohjeistukset ja kadottavat inhimillisyyden ja ainutlaatuisen ajattelun. Michunas & Pilotta (2023) huomauttavat, että kaikki tekoälyohjelmat tulevat tarvitsemaan ihmisen arviointia liittyen arvopainotuksiin, niiden kontekstiin ja kunkin mahdollisuuksien arviointiin.

Lähteet

Corvite, S., Roemmich, K., Rosenberg, T. I., & Andalibi, N. 2023. Data Subjects’ Perspectives on Emotion Artificial Intelligence Use in the Workplace: A Relational Ethics Lens. Proceedings of the ACM on Human-Computer Interaction. Vol. 7(CSCW1), 1–38. Viitattu 5.8.2024. Saatavissa https://doi.org/10.1145/3579600

European Parliament. 2023. EU AI Act: first regulation on artificial intelligence. Viitattu 5.8.2024. Saatavissa https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence

Mckay, C. 2024. FlexAI Launches with $30M in Funding to Simplify AI Compute Infrastructure. Maginative. Viitattu 5.8.2024. Saatavissa https://www.maginative.com/article/flexai-launches-with-30-million-in-funding-to-simplify-ai-compute-infrastructure/

Mickunas, A., & Pilotta, J. 2023. A Critical Understanding of Artificial Intelligence. (1st ed.). Sharjah: Bentham Science Publishers.

OECD. 2019. Recommendation of the Council on Artificial Intelligence. Viitattu 3.8.2024. Saatavissa https://legalinstruments.oecd.org/fr/instruments/oecd-legal-0449

OECD. 2024. OECD updates AI Principles to stay abreast of rapid technological developments. Viitattu 5.8.2024. Saatavissa https://www.oecd.org/en/about/news/press-releases/2024/05/oecd-updates-ai-principles-to-stay-abreast-of-rapid-technological-developments.html

OECD.AI. 2024. Transparency and explainability (Principle 1.3). OECD.AI Policy Observatory. Viitattu 5.8.2024. Saatavissa https://oecd.ai/en/dashboards/ai-principles/P7

Pohling, R., Bzdok, D., Eigenstetter, M., Stumpf, S., & Strobel, A. 2016. What is Ethical Competence? The Role of Empathy, Personal Values, and the Five-Factor Model of Personality in Ethical Decision-Making. Journal of Business Ethics. Vol. 137(3), 449–474. Viitattu 5.8.2024. Saatavissa https://doi.org/10.1007/s10551-015-2569-5

Rachlers, J. & Rachlers, S. 2012. The Elements of Moral Philosophy. 7th ed. New York: The McGraw Hill Companies.

Shanley, D., Hogenboom, J., Lysen, F., Wee, L., Lobo Gomes, A., Dekker, A., & Meacham, D. 2024. Getting real about synthetic data ethics: Are AI ethics principles a good starting point for synthetic data ethics? EMBO Reports. Vol. 25(5), 2152–2155. Viitattu 5.8.2024. Saatavissa https://doi.org/10.1038/s44319-024-00101-0

UNESCO. n.d. Ethics of Artificial Intelligence. The Recommendation. Viitattu 5.8.2024. Saatavissa https://www.unesco.org/en/artificial-intelligence/recommendation-ethics

Wagner, A. Bartneck, C., Lütge, C., & Welsh, S. 2020. What Is Ethics? in An Introduction to Ethics in Robotics and AI. Switzerland: Springer International Publishing AG.

Kirjoittaja

Heidi Myyryläinen toimii TKI-asiantuntijana liiketoimintayksikössä LAB-ammattikorkeakoulussa ja projektipäällikkönä Distance LAB-hankkeessa, joka tarkastelee ja kehittää etätyössä tarvittavia taitoja.

Artikkelikuva: https://www.pexels.com/photo/person-wearing-silver-framed-eyeglasses-5474033/ (Pexels Licence)

Viittausohje

Myyryläinen, H. 2024. Tekoäly jatkaa kehittymistä – eettisille taidoille on tilausta. LAB Pro. Viitattu pvm. Saatavissa https://www.labopen.fi/lab-pro/tekoaly-jatkaa-kehittymista-eettisille-taidoille-on-tilausta/