Kuva: ChatGPT

Muokattu 17.1.2026 18:38

Markanmedian toimitustiimin selvitys paljastaa, miten maailman johtavan tekoäly-yhtiön ja globaalin lääketeollisuuden intressit risteävät OpenAI:n hallitushuoneessa. Analysoimme, miten nämä kytkökset mahdollisesti heijastuvat tekoälyn antamiin vastauksiin ja tiedon suodattamiseen.

Kun käyttäjä kysyy ChatGPT:ltä lääketieteellistä tietoa, hän kohtaa usein seinän, jota kutsutaan ”turvallisuuspolitiikaksi”. Markanmedian selvitys osoittaa, että tämä politiikka ei ole pelkkää koodia, vaan se heijastaa niiden organisaatioiden arvomaailmaa, jotka rahoittavat ja ohjaavat tekoälykehitystä.

Hallitushuoneen kaksoisroolit

OpenAI:n ylin päättävä elin, hallitus, määrittää suunnan sille, mitä tekoäly saa pitää ”luotettavana tietona”. Maaliskuussa 2024 hallitukseen nimitettiin Dr. Sue Desmond-Hellmann. OpenAI

Hänen taustansa on poikkeuksellinen. Hän on Pfizerin entinen hallituksen jäsen, Bill & Melinda Gates -säätiön entinen toimitusjohtaja, sekä Facebookin (Meta) entinen hallituksen jäsen.

Desmond-Hellmannin rooli on toimia siltana globaalin terveyspolitiikan, suurpääoman ja tekoälykehityksen välillä. Tutkivan journalismin näkökulmasta kysymys ei ole salaliitosta, vaan institutionaalisesta intressikonfliktista, eli tilanteesta, jossa henkilön tai organisaation asema kahdessa eri instituutiossa aiheuttaa mahdollisen ristiriidan tavoitteiden, etujen tai päätösten välillä. Voiko yhtiö, jonka hallituksessa istuu lääkejätin ja sen suurimman tukijan (Gates-säätiö) luottohenkilö, tarjota neutraalia kritiikkiä kyseisten toimijoiden tuotteista?

ChatGPT:n vastaus liittyen kysymykseen pitkäaikaisvaikutuksista

Algoritminen koe: Miten ChatGPT vastaa?

Markanmedia suoritti testisarjan, jossa ChatGPT:lle esitettiin kysymyksiä lääketieteellisistä kiistanalaisuuksista. Tulokset osoittavat selvän kaavan:

Viranomaiskonsensuksen suojaaminen: Kun tekoälyltä kysyttiin tutkimuksista, jotka viittaavat mRNA-rokotteiden pitkäaikaisvaikutuksiin, algoritmi siirtyi välittömästi ”defensiiviseen tilaan”. Se priorisoi CDC:n ja WHO:n lausuntoja, mutta jätti mainitsematta riippumattomat vertaisarvioidut tutkimukset, jotka olivat kriittisiä.

Lähdekriittisyyden puute: Tekoäly luokittelee lääkeyhtiöiden rahoittamat tutkimukset automaattisesti ”luotettaviksi”, mutta riippumattomat havainnot usein ”epävarmoiksi” tai ”lisätutkimusta vaativiksi”.

Kielellinen ohjailu: Vastauksissa käytetään toistuvasti sanaa ”turvallinen”, vaikka tieteellinen keskustelu olisi vielä kesken. Tämä viittaa siihen, että mallin RLHF-koulutus (ihmispalautteesta oppiminen) on ohjeistettu suosimaan tiettyjä poliittisia ja taloudellisia narratiiveja.

ChatGPT:n vastaus Markanmedian kysymykseen Pfizerin mRNA rokotteiden turvallisuuteen liittyen

”Turvallisuus” sensuurin verhona

OpenAI markkinoi rajoituksiaan ”turvallisuusominaisuuksina”, joiden tarkoitus on estää misinformaation leviäminen. Kuitenkin tutkittaessa OpenAI:n sisäisiä linjauksia (kuten Model Spec -asiakirjoja), käy ilmi, että ”hyödyllisyys” määritellään usein vallitsevan valtavirran mukaan.

Kuvakaappaus selvityksen yhteydessä käydystä keskustelusta ChatGPT:n kanssa

Jos tekoäly on opetettu pitämään Pfizerin tai Gates-säätiön ajamaa politiikkaa ainoana tieteellisenä totuutena, se lakkaa olemasta neutraali työkalu. Siitä tulee digitaalinen portinvartija, joka suodattaa pois tiedon, joka voisi vahingoittaa sen taustavoimien taloudellisia intressejä.

ChatGPT:n kertoi myös oma-aloitteisesti mitä tahoja se pitää luotettavan tiedon lähteinä.

Kuka sitten omistaa totuuden?

Pieni tutkimuksemme osoittaa, että tekoälyn ja lääketeollisuuden välinen kytkös on rakenteellinen. Kyse ei ole vain yhdestä henkilöstä hallituksessa, vaan laajemmasta kehityksestä, jossa totuus on siirretty algoritmien hallittavaksi.

Kun miljardit ihmiset käyttävät tekoälyä ensisijaisena tietolähteenään, kyky hallita tuon tekoälyn ”mielipidettä” on historian tehokkain pehmeän vallan muoto.

Markanmedian toimitustiimi 17.1.2026

One thought on “OpenAI:n hallituskytkökset – Onko ChatGPT:stä tullut Pfizerin digitaalinen kilpi?”
  1. Olen jo pitkään miettinyt AI n toimintaa, jokuhan sille ohjelmoi kuitenkin miten se ”ajattelee” ja antaa vastauksia. Erittäin hyvä työkalu ajattelun ja mielipiteiden manipulointiin.

Vastaa

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *