Tekoäly ei uhkaa maailmaa vaan ihminen
Mahdollinen tekoälyn uhka ei tule siitä, että koneet muuttuisivat itsenäisiksi ja oppisivat ajattelemaan. Ne ovat ihmisen ajattelun jatkeita. Koneiden väittäminen tietoisiksi ja itsenäisiksi ei ole vain harhaanjohtavaa, vaan peittää ihmisen toiminnan, toteaa tutkijatohtorimme Dominik Schlienger.

Tekoälyn nopea kehitys on tuonut julkiseen keskusteluun huolen siitä, että se muodostuisi uhkaksi koko ihmiskunnalle. Myös jotkut tutkijat ovat tukeneet tätä uhkakuvaa.
Dominik Schlienger Taideyliopistosta argumentoi artikkelissaan ”The fallacy of autonomous AI”, että tietokoneet eivät voi olla eikä niistä voi tulla itsenäisiä ajattelijoita.
Schlienger perustelee väitettään sillä, että tietokoneet toimivat algoritmien avulla.
”Koneet toimivat niiden ajattelutapojen jatkeina, jotka määrittävät niiden käyttämän kielen. Tietokone on aivoille kuin vasara on kädelle”, hän selittää.
Jos tekoäly on kuin mikä tahansa muu tekninen työkalu eikä itsenäinen ajattelija, vaan jatke meidän ajattelullemme, sen vaarat liittyvät siihen, miten käytämme tekoälyä.
Kone on ihmisen luoma järjestelmä
Ohjelmisto osoittaa koneiden sosio-teknisen luonteen paremmin kuin mikään muu: Jokaisen ohjelmistokoodin rivin on kirjoittanut ihminen, ja usein ei vain yksi ihminen, vaan ohjelmoijien, kehittäjien, keksijöiden, laitesuunnittelijoiden ja käyttäjien yhteisö.
Vaikka kone olisi kuinka automatisoitu, sen ajattelukyky on ihmisten luomaa – se on sosiaalinen käytäntö.
Schliengerin mukaan tietokonekoodin ja algoritmien kautta tekoäly on kielellinen laite, jolla on kielioppi, syntaksi ja semantiikka kuten luonnollisilla kielillä. Ne ovat ihmisten merkityksenluonnin järjestelmä.
”Väite, että tietokone voisi ajatella itsenäisesti, perustuu oletukseen, että tietokonekielissä merkitys voitaisiin koodata suoraan merkkiin. Tämä ei kuitenkaan pidä paikkaansa. Koko kone, mukaan lukien sen käyttöjärjestelmä, laitteisto ja ohjelmisto, muodostavat koodin, ja siksi ne ovat osa merkkiä ja sen jälkeä.”
Vain sekoittamalla merkin ja merkityksen voi väittää, että tietokoneiden merkityksen muodostaminen olisi erillään ihmisten merkityksen muodostamisesta, Schlienger toteaa.
Lisäksi, koska koneet, kuten kieli ja koodi, tarvitsevat suorittamista merkityksen luomiseksi, korostuu se, että me teemme tekoälyä, eikä tekoäly voi toimia itsenäisesti. Merkityksen muodostamiseksi tarvitaan aina edeltävä ja seuraava tapahtuma, jotka aktivoidaan koodin avulla.
Kielellinen lähestymistapa näkyy Schliengerin mukaan erityisesti suurten kielimallien pohjalta toimivissa chat-boteissa.
Vaara juontuu inhimillisestä ajattelusta
Schlienger ei kiistä teknologioiden potentiaalia eikä myöskään mahdollisia vaaroja, mutta sen sijaan hän vastustaa ajatusta, jossa vaara liitetään suoraan teknologiaan.
”Tekoälyn haitat ja vaarat ovat suoraa seurausta inhimillisestä ajattelusta, ei jotain, mistä voimme syyttää tekoälyä. Ulkoisen toimijan, deus ex machinan, toimijuuden liittäminen voi olla kätevää hegemonialle, joka hyötyy siitä, mutta se on vastuusta luistamista.”
Schliengerin mukaan meidän on mietittävä uudelleen, miten kehitämme tekoälyä.
”Se, että tekoälyn toimijuus ei ole itsenäistä vaan ihmisen ajattelun jatke, tarjoaa Troijan hevosen niille, jotka hallitsevat konetta.”
Tutustu Dominik Schliengerin artikkeliin ”The fallacy of autonomous AI”