Janne Känkänen ja Petri Uusikylä: Tekoäly tuo uusia haavoittuvuuksia varautumiseen
Tekoäly tuo uusia haavoittuvuuksia varautumiseen
Tekoäly voi muuttaa ihmisten toimintaa tavoilla, jotka yksittäistapauksessa vaikuttavat harmittomilta, mutta skaalautuessaan aiheuttavat ongelmia.
OpenAI on ilmoittanut perustavansa uuden tehtävän: Head of AI Preparedness. Se kertoo siitä, että tekoälyn kehitys on siirtymässä vaiheeseen, jossa kehityksen kärjessä olevat niin sanotut frontier-mallit eivät ole enää vain hyödyllisiä työkaluja, vaan potentiaalisesti myös uusia riskejä synnyttäviä järjestelmiä. Tämä herättää kysymyksiä siitä, miten mallien kyvykkyyksien kasvaessa niiden riskit tunnistetaan, miten turvallisuutta arvioidaan ja miten varautuminen skaalautuu kehityksen mukana.
Samalla on aiheellista kysyä, miten tekoälyyn liittyvä varautuminen suhteutuu yhteiskunnalliseen varautumiseen. Molemmat ovat haastavia kokonaisuuksia – mutta kumpi niistä on lopulta vaikeampi?
Tekoälyvarautumisella tarkoitetaan varautumista siihen, mitä yhä kehittyneemmät tekoälyjärjestelmät voivat mahdollistaa. Tarve liittyy sekä suoriin että välillisiin uhkaskenaarioihin.
Suorissa AI-uhkissa tekoäly mahdollistaa haitallisen koodauksen, hakkeroinnin ja kyberhyökkäysten automatisoinnin aiempaa tehokkaammin ja laajemmassa mittakaavassa. Kielimallien kehittyessä on tunnistettu riski siitä, että........
