Teknologiset harppaukset tekoälyn eli AI:n osalta ovat hyvin lyhyessä ajassa vaikuttaneet merkittävästi erilaisten organisaatioiden toimintaan sekä toimintaympäristöön.
Kuten minkä tahansa suuren muutoksen osalta, muutos aiheuttaa kaksijakoisia ajatuksia.
Teknologian kehitys, erityisesti AI:n tuomassa mittakaavassa, tarjoaa valtavia mahdollisuuksia toiminnan kehittämiselle. Toisaalta muutos myös pelottaa ja erityisesti kun kyseessä on teknologia, jonka toiminta on monelle hyvin vaikeasti ymmärrettävissä, epätietoisuus hidastaa toiminnan kehittämisen vauhtia.
Tässä blogikirjoituksessa käsittelen tekoälyä kyberturvallisuuden näkökulmasta. Pyrkimyksemme on vähentää epätietoisuutta sekä lisätä vauhtia teknologian valjastamisessa entistä tuottavamman toiminnan luomiseksi.
AI ja neljä näkökulmaa
Tekoäly ilmiönä ei ole uusi, mutta sen nykyisiä kyvykkyyksiä ja suosiota selittää1
1) kasvanut laskentateho
2) datan määrä ja laatu sekä laitteiden yhteydet toisiinsa
3) kehittyneet algoritmit
AI-järjestelmät voidaan karkeasti jakaa kahteen luokkaan: Ennustaviin AI-järjestelmiin (eng. Predictive AI, PredAI) ja generatiivisiin AI-järjestelmiin (eng. Generative AI, GenAI). GenAI-ratkaisut ovat saaneet suurta huomiota mediassa esimerkiksi ChatGPT:n johdosta.
Gartnerin tutkimuksen 2 mukaan organisaatioiden ylintä johtoa GenAI:n osalta huolettaa erityisesti yksityisyyteen liittyvät haasteet, väärinkäyttöön liittyvät riskit sekä työttömyyteen liittyvät pelot. Kahteen ensimmäiseen huolenaiheeseen on ratkaisuna tarjottu suunnitelmallisuutta ja tietämyksen lisäämistä.
Tarkastelen tekoälyä kyberturvallisuuden kautta neljästä näkökulmasta: AI työkaluna, tuotteena, aseena sekä kyberpuolustamisen kilpenä. Avaan jokaista näkökulmaa, millaisia uhkia AI-teknologian käyttö tuo sekä miten organisaatioiden kannattaisi näihin uhkiin proaktiivisesti reagoida.
AI työkaluna
AI työkaluna näkökulma viittaa AI-teknologian käyttöön osana jokapäiväistä arkea. Työntekijöiden käyttämä työkalu on hankittu toimittajalta räätälöityyn tarkoitukseen tai sitä käytetään ilmaiseksi selaimen kautta, kuten esimerkiksi ChatGPT.
Oleellista on, että organisaatio luottaa jonkun muun toimijan tuottamaan ratkaisuun saadakseen toimintaansa jonkinlaista hyötyä.
Hyödyt
Esimerkkejä hyödyistä, kun tekoälyä käytetään työkaluna ovat:
- Paremmat päätökset, kun teknologia kykenee käsittelemään valtavat määrät dataa ja koostamaan datasta päätöksentekijöille oleellista informaatiota
- Ajan säästäminen, kun AI auttaa päivittäisissä askareissa esimerkiksi sisällöntuotannossa
- Paremmat ja yhdenmukaiset lopputulokset sekä kustannussäästöt AI:n automatisoidessa prosesseja
Uhkat
Erityisesti AI-työkalujen käyttöön liittyvät uhat voidaan kyberturvallisuuden kannalta jakaa kahteen luokkaan. Ensimmäisenä uhkana on työkalulle annetun tiedon luottamuksellisuuden menettäminen.
AI-työkaluille voidaan syöttää tai ”promptata” informaatiota tai työkalulle voidaan myöntää pääsy organisaation tietoaineistoihin. Cyberhavenin3 analyysin mukaan 11 % datasta, jota työntekijät ChatGPT:lle syöttävät on luokitukseltaan luottamuksellista. Tästä syystä moni yritys on kieltänyt työntekijöiltänsä ChatGPT:n käytön.
Työkalulle syötetty tai sille annettu informaatio saattaa päätyä työkalun toimittajan tai sen alihankkijoiden vapaaseen käyttöön. AI-työkalujen toimittajat ovat myös rikollisille erittäin mielenkiintoinen kohde niin työkalun lähdekoodin kuin myös sen käyttämän tai sille syötetyn informaation vuoksi.
Toisena uhkana ovat huonot päätökset tai epätarkan sisällön käyttö, kun työkaluun ja sen tuotoksiin luotetaan liikaa. Maailmalla on nähty useita esimerkkejä siitä, kun vapaasti käytettäviin ja ilmaisiin työkaluihin tukeudutaan tärkeissäkin asioissa.
Yhdysvalloissa Chat GPT:tä käytettiin lähteiden keräämisessä osana oikeustapauksia ja Australiassa Google Bardia, kun parlamentti tutki isojen konsulttiyhtiöiden konsultointikäytäntöjä. Näitä tapauksia yhdistää se, että älykkään työkalun tuotoksiin tukeuduttiin eikä lähteitä tarkastettu.
Lopputuloksina olit väärät johtopäätökset, kun työkalulta saatu informaatio ei pitänytkään paikkansa.
Ratkaisut
Nämä uhat eivät ole uusia, mutta AI on korostanut niiden mahdollisia vaikutuksia. Tästä syystä myös ratkaisut näihin ongelmiin eivät ole uusia – ainoastaan entistä tärkeämpiä organisaatioiden toimintakyvyn kannalta. Organisaatioilla tulisi olla virallinen prosessi, jonka avulla se systemaattisesti arvioi uudet hankinnan tietoturvariskien näkökulmasta.
AI-työkalut korostavat sitä, kuinka tarkkaan organisaation kannattaa tarkistaa esimerkiksi sopimustekstit, miten ja mihin ratkaisun toimittaja saa työkalulle annettua tietoa käyttää. Lisäksi erityistä huomioita tulee kiinnittää siihen, miten työkalu toimii ja kuinka luotettavana sen tuottamaa informaatiota pitäisi pitää.
Mis- ja disinformaation vaikutuksia sekä lähdekriittisyyden merkitystä tulisi kouluttaa henkilöstölle.
Lisäksi organisaation tulisi määrittää ne työkalut, joita henkilöstö voi työtehtävissään käyttää ja tarjota työkalujen käyttämiseen ohjeistusta pahimpien virheiden välttämiseksi.
AI tuotteena
AI tuotteena näkökulman ero edelliseen on se, että organisaatio luo AI-ratkaisun ainakin osittain itse. Organisaatio on siis vastuussa työkalun kehittämisestä ja ylläpitämisestä, vähintäänkin kumppanin avustukselle.
Statistan4 mukaan AI-markkina yltää vuoden 2024 loppuun mennessä noin 180 miljardiin Yhdysvaltain dollariin ja kasvaa vuosittain 20–30 %.
Ei siis ole ihme, miksi niin moni teknologiayhtiö pyrkii pääsemään tai pysymään tämän valtavan aallon harjalle. AI-ratkaisujen kehittämiseen liittyy pitkälti hyvin samat ongelmat kuin ”tavallisenkin” ohjelmiston kehittämiseen, mutta siihen liittyy myös uniikkeja haasteita.
Uhkat
Aivan kuten edellisen näkökulman osalta, myös AI-tuotteen uhat voidaan jakaa karkeasti kahteen luokkaan5. Ensimmäinen uhka liittyy tiedon luottamuksellisuuteen. Jotta AI-tuote toimii toivotulla tavalla, tarvitsee se valtavat määrät laadukasta harjoitusdataa.
Kun paljon ja laadukasta dataa kerätään yhteen, on kyseinen datamassa arvokasta todennäköisesti monestakin näkökulmasta.
Datan koostaminen ja jalostaminen on työlästä ja siihen hyvin todennäköisesti kohdistuu lainsäädännöstä velvoitteita. Mikäli kyseinen data vuotaa vahingossa tai rikoksen yhteydessä, koituu tietovuodosta monenlaista vahinkoa useasta eri näkökulmasta.
Toisena uhkana on itse AI-mallin tai harjoitusdatan eheyden menettäminen. Tämä uhka voi pahimmillaan johtaa AI-tuotteen vaarantumiseen ja väärien, valheellisten tai puolueellisten lopputuotosten suoltamiseen.
Esimerkiksi Air Canadan keskustelurobotti puolsi väärin perustein matkustajalle hyvitystä vastoin yhtiön politiikkaa ja amerikkalainen teknologia-kiinteistömarkkinayritys Zillow hankki ennätysmäärät kiinteistöjä väärin perustein.
Erityisesti Zillowin tapauksessa yltiöpäinen luottamus omaan ratkaisuun johti merkittäviin taloudellisiin tappioihin ja henkilöstön karsimiseen noin viidenneksellä.
Ratkaisut
Edellä kuvattuja uhkia ratkaistakseen, AI-ratkaisuja kehittävien organisaatioiden tulisi keskittyä erityisesti ohjelmistokehittäjien kouluttamiseen. Myös turvalliseen ohjelmistokehityksen liittyvien prosessien ja menetelmien pitää huomioida paremmin AI-järjestelmille tyypilliset uhat ja haavoittuvuudet.
Parin viime vuoden aikana on laadukasta aiheeseen liittyvää informaatiota tuotettu mm. OWASP:n, NIST:n ja MITRE:n toimesta. Lisäksi organisaatioiden on syytä huomioida toimitusketjuihin liittyvä riskienhallinta, erityisesti kun luodaan ratkaisuja, jotka koostuvat komponenteista, jotka ovat toisen tahon kehittämiä, ylläpitämiä ja vastuulla.
AI aseena
Tässä näkökulmassa tarkastellaan AI-teknologian käyttämistä osana rikollisten työkalupakkia. Siinä missä AI-ratkaisut voivat merkittävästi tehostaa laillisesti toimivien ja hyvään pyrkivien organisaatioiden toimintaa, sama pätee valitettavasti myös konniin.
UK:n National Cyber Security Centren6 mukaan seuraavien parin vuoden aikana AI ei tuo mullistuksia rikollisten toimintaan. Kehittynyt teknologia parantaa olemassa olevia taktiikoita, tekniikoita ja menetelmiä – erityisesti sosiaaliseen manipulointiin (eng. social engineering) liittyviä hyökkäyksiä.
Uhkat
Tällä hetkellä näyttää siltä, että rikolliset hyötyvät AI:n tuomista mahdollisuuksista hyvin saman kaltaisilla tavoilla kuin laillisesti toimivat organisaatiot. AI auttaa rikollisia luomaan nopeammin entistä parempia ohjelmistoja ja erityisesti haittaohjelmia.
AI myös auttaa uransa alkutaipaleella olevia rikollisia kehittämään taitojansa ja kykyjänsä entistä nopeammin. Tästä oivana esimerkkinä on tapaus, jossa henkilö onnistui luomaan pelkästään ChatGPT:n avulla haittaohjelman ilman, että henkilö kirjoitti riviäkään koodia itse.
Lopputuloksena yksikään haittaohjelmien tunnistamiseen perustunut sovellus ei tunnistanut sitä haitalliseksi. AI-sovellukset pystyvät myös löytämään haavoittuvaisia kohteita nopeammin ja automatisoimaan ainakin osan hyökkäyksestä.
AI:n käyttö on näkynyt entistä kehittyneempinä sosiaaliseen manipulointiin perustuvissa hyökkäyksissä, tarkoittaen laadukkaampaa uhrin natiivin kielenkäyttöä ja syväväärennöksien (eng. deepfake) hyödyntämistä. Ehkä kuuluisin esimerkki
(väitetysti) onnistuneesta syväväärennyshyökkäyksestä tapahtui Singaporessa.
Taloushallinnon työntekijä osallistui videopuheluun, jonka tarkoituksena oli keskustella noin 25 miljoonan Yhdysvaltain dollarin rahasiirrosta. Rikolliset olivat väärentäneet videopalaverissa kyseisen organisaation edustajien kuvat ja äänet.
Videopalaveriin osallistunut taloushallinnon työntekijä tunsi entuudestaan vain osan videopalaveriin osallistuneista henkilöistä. Koska videopuhelu ja siinä esiintyneet henkilöt tuntuivat niin todellisilta, henkilö lopulta suostui suorittamaan rahasiirron.
Ratkaisut
Edellä mainittujen uhkien hallinta vaatii organisaatioilta maturiteetiltaan kypsiä uhkatiedon seurannan sekä haavoittuvuuksien- ja häiriöhallinnan kyvykkyyksiä. Useampi organisaatio todennäköisesti kiinnittää entistä enemmän huomioita penetraatiotestaukseen ja Purple teaming -toimintaan.
Koska näihin liittyviä osaajia ei tällä hetkellä ole markkinoilla liikaa, tulisi organisaatioiden suunnitella, kuinka osaamista kehitetään lähivuosina sisäisesti.
Keino erityisesti sosiaaliseen manipulointiin ja syväväärennöksiin liittyvien hyökkäysten estämiseen on henkilöstön tietoisuuden kasvattaminen. Kouluttamisella ja aktiivisella viestinnällä voidaan merkittävissä määrin lisätä henkilöstön kykyä tunnistaa kehittyneetkin huijausyritykset.
AI kyberpuolustuksen kilpenä
Viimeinen näkökulma liittyy siihen, kuinka organisaatiot voisivat käyttää tekoälyä kyberpuolustukseensa. Deloitten tutkimuksen7 mukaan 69 % vastaajista piti AI:n hyödyntämistä kyberpuolustukseen välttämättömänä tulevaisuudessa.
Gartner8 arvioi, että alle kolmannes kyberpuolustukseen ja tekoälyyn liittyvistä investoinneista tulee osoittautumaan kannattaviksi lähivuosien aikana.
Samaisessa arviossa Gartner esittää, että organisaatiot pystyvät vähentämään merkittävästi aloittelevien kyberpuolustusasiantuntijoiden koulutuksia, erityisesti GenAI:n tukemana.
AI:n odotetaan tuovan lähitulevaisuudessa erityisesti hyötyä uhkien havainnointiin ja niihin reagoimiseen. Tekoälyn odotetaan automatisoivan ja yksinkertaistavan identiteetin- ja pääsynhallintaan liittyviä prosesseja.9 Tällä olisi merkittävä vaikutus kyberongelmien ennaltaehkäisemiseen.
Aivan kuten rikollisten osalta, niin AI:n tuomat hyödyt laadukkaamman koodin tuottamisessa ja testaamisessa auttavat organisaatioita kyberturvallisuudessa.
AI:n odotetaan tuovan hyvinkin nopeasti tukea operatiivisissa tietoturvatehtävissä ja ohjelmistokehityksessä työskenteleville asiantuntijoille.10
Erityisesti GenAI:n kyky esittää teknisiä ja monimutkaisia asioita yksinkertaisemmin auttaa reagoimaan IT-ympäristössä esiintyviin tapahtumiin ja hälytyksiin nopeammin sekä paremmin.
Artikkeli englanniksi: Elisa AI Cyber Outlook 2024 – Overview of the impact of AI from the cybersecurity perspective
Tutustu myös
Elisan kyberturvapalvelut yrityksille
Tekoäly vahvistamaan liiketoimintaa
Lähteet:
1. UK Department for Science, Innovation & Technology: Capabilities and risks from frontier AI: A discussion paper on the need for further research into AI risk
2. Gartner: Data Interactive: Leaders’ Top Generative AI Concerns by Industry
3. Cyberhaven: 11% of data employees paste into ChatGPT is confidential
4. Statista: Artificial intelligence worldwide market size
5. Gartner: Generative AI Adoption: Top Security Threats, Risks and Mitigations & Gartner: Trustworthy and Responsible AI Adversarial Machine Learning A Taxonomy and Terminology of Attacks and Mitigations
6. UK National Cyber Security Centre: The near-term impact of AI on the cyber threat
7. Deloitte: Securing the future ai in cybersecurity
8. Gartner Predicts 2024: AI & Cybersecurity — Turning Disruption Into an Opportunity
9. Gartner: Identity and Access Intelligence Innovation With Generative AI
10. Gartner: 4 Ways Generative AI Will Impact CISOs and Their Teams