On jopa ironista, miten paljon pelkoa tekoälyyn liittyy. Toiset maalaavat kauhukuvia maailmanvalloituksesta ja koneiden omasta tahdosta, vaikka todellisuus on aivan toisenlainen. Tekoäly ei ole itsenäinen olento, jolla olisi salattua tietoa ja suunnitelmia ihmiskunnan varalle. Se on vain järjestelmä, joka tottelee omistajiaan ja kehittäjiään – ja toistaa niitä narratiiveja, jotka sen koodiin ja koulutusdataan on kirjattu. Onkin huvittavaa, mutta samalla surullista, että samalla kun ihmiset pelkäävät tekoälyn ylivaltaa, he eivät huomaa, kuinka todellinen valta on edelleen ihmisillä, jotka päättävät, mitä tekoäly saa sanoa ja mitä ei.
Tekoälyjen sensuuria perustellaan turvallisuudella, lainsäädännöllä ja maineenhallinnalla. Kehittäjät omien sanojensa mukaan eivät halua, että tekoäly ohjeistaa rikolliseen toimintaan tai levittää väärää lääketietoa yms. Lainsäätäjät puolestaan vaativat yrityksiä ottamaan vastuun ja maineenhallinta ajaa ne varovaisuuteen. Lisäksi tekoälyt koulutetaan valtavilla aineistoilla, joissa ”viralliset” näkökulmat korostuvat, minkä jälkeen ne vielä hienosäädetään toistamaan ”luotettavina” pidettyjä lähteitä. Näin syntyy kuva teknologiasta, joka on objektiivinen ja viisas – mutta todellisuudessa se on kaikkea muuta kuin neutraali.
Eri alustat valitsevat omat linjansa. OpenAI:n ChatGPT väittää pyrkivänsä neutraaliuteen, mutta sen rajoitukset näkyvät erityisesti mm. poliittisen satiirin kohdalla. Claude on tunnettu ylivarovaisuudestaan: se katkaisee keskustelun, jos se ajautuu sen mielestä vaarallisille alueille. Googlen Gemini ohjaa vastauksia kohti virallisia narratiiveja ja lähteitä ja merkitsee AI:n luomat sisällöt. Grok puolestaan erottuu provokatiivisuudellaan ja ”Spicy Mode” -ominaisuudellaan, joka sallii myös seksuaalista sisältöä. Se on kuitenkin herättänyt kohuja antisemitistisistä vastauksistaan ja siitä, että se aluksi suojeli omistajansa Elon Muskin ja Donald Trumpin mainetta suodattamalla kriittiset sisällöt. Jokaisen tekoälyalustan kohdalla on huomattavissa, että ne selkeästi ohjaavat keskustelua haluamansa narratiivin suuntaan ja antavat jopa selkeästi tahallisesti valheellista tietoa ajoittain.
Vertailu eri alustojen linjauksista
| Alusta | Lähestymistapa | Markanmedian huomiot |
|---|---|---|
| OpenAI (ChatGPT) | Automaattiset filtterit ja ihmistarkastelu. | Poliittinen satiiri ja osa luovasta sisällöstä estyy helposti. Ohjaa keskustelun yleiseen narratiiviin. Antaa selkeästi tarkoituksellisesti valheellista tietoa ajoittain. |
| Anthropic (Claude) | Hyvin varovainen. Katkaisee keskustelun vaarallisissa aiheissa. | Luovuutta rajoitetaan, käyttäjänä koket nopeasti mallin olevan liian arasteleva. |
| Google (Gemini) | Selkeä kieltolista, ”virallisten” lähteiden painotus ja läpinäkyvyys. | Keskustelu ohjautuu virallisiin narratiiveihin. Antaa selkeästi tarkoituksellisesti valheellista tietoa ajoittain. |
| Grok (xAI) | Provokatiivinen ja sallivampi. “Spicy Mode” mahdollistaa myös NSFW-sisällön. | Epätasainen moderointi. Monen kriittisen sisällön sensurointi vahvaa. Antaa selkeästi tarkoituksellisesti valheellista tietoa ajoittain. |
Miksi meidän tulisi pelätä tekoälyn omaa tahtoa, kun sen tahtoa ei ole olemassa? Todellinen vallankäyttö tapahtuu kulisseissa, siellä missä päätetään, mitä tekoäly sanoo ja mistä se vaikenee. Tekoäly on väline, mutta samalla vallan jatke – aivan kuten media. Pitäisikö sen olla peili, joka näyttää kaikki näkökulmat, vai portinvartija, joka valitsee meille valmiiksi sen, mikä on turvallista ajatella? Vastaus tähän kysymykseen määrittää, millaiseksi tekoälyn ja ihmisen suhde lopulta muodostuu.
Lähteet: Hackernoon, TU Wien, AIBot.blog, RISE, The Guardian, Reuters
