Tehisintellekti valdkond on kiiresti arenenud ning ettevõtete juhtkondadel on edu saavutamiseks vaja mõista strateegiliselt nii selle uue tehnoloogia hüvesid kui ka pahupooli. Õigesti kasutusele võetud tehisintellekt võib tõsta ettevõtte efektiivsust, kuid selle tehnoloogia äriprotsessidesse juurutaja peab arvestama ka küberturvalisuse, õigusküsimuste ja ohutusega. ITL leidis kaks ettevõtet – Moticheck OÜ ja Flowit Estonia OÜ – kelle tehisintellekti kasutamise riske liidu liikmesettevõtete turvaeksperdid hindasid (loe: “ITLi kampaania käigus valmis turvalise AI kasutamise hea tava).
Hea tava, mille jälgimist teenusepakkujalt nõuda
Sõltumata sellest, kas te teete mingeid tegevusi ise või tellite sisse teenusena, on nende juures oluline teatud hügieenist aru saamine. Uurige lisaks ka RIA ja Cybernetica koostöös valminud põhjalikku uuringut tehisintellekti ja masinõppe tehnoloogia riskide ning nende leevendamise võimaluste kohta (vt metoodika peatükki nr 8).
ITL on loonud “Hea tava tehisintellektisüsteemide loomisel”, et ettevõtjad ei peaks igaüks omaette nuputama, millised on „mõistlikud ootused“ teenusele. Tava on kirja pandud IKT-sektori poolt eneseregulatsiooni eesmärgiga ütlemaks klientidele, et me teame, mida teeme ning võtame vastutuse tehtu eest.
Hea tava tehisintellektisüsteemide loomisel
Kuna tehisintellektisüsteem on infosüsteem, siis järgime ITLi head tava turvalise tarkvara arendamisel. Lisaks sellele tagame, et nii meie loodavad tehisintellektisüsteemid kui ka meie pakutavad tehisintellekti kasutavad teenused oleks arendatud järgmiste printsiipide järgi.
- Teadvustame, et tehisintellektisüsteemide teadlik ja korrektne rakendamine võib tõsta töö efektiivsust.
- Tehisintellekti tehnoloogiate kiire areng nõuab tehisintellektisüsteemide loojatelt pidevat enese täiendamist ning oma töö meetodite kohandamist uue teabega.
- Tehisintellektisüsteemide loojad peavad olema valmis iga projekti jaoks juurde õppima ja õpitut partneri või kliendile edasi andma, teda võimaluste, riskide ja tehnoloogiate alal nõustades.
Rakendame ühtset riskihaldust
- Tehisintellektisüsteemide kavandades, arendades ja käitades käsitleme tehisintellektispetsiifilisi (eetilisi, ühiskondlikke, keskkonna, algoritmidest lähtuvaid jt) riske, infoturvariske ja õiguslikke riske ühtselt.
- Tehisintellektisüsteeme kavandades pöörame tähelepanu uutele ohtudele, mida tehisintellekti tehnoloogiate kasutamine kaasa toob ning kavandame süsteemid nii, et vastavaid riske leevendada.
- Tagame küberturvalisuse parimate praktikate rakendamise kõigile tehisintellektisüsteemi komponentidele ning teame, et ka tehisintellekti mudelid on andmed. Töötame selles suunas, et tagada turvalisus iga tehisintellektisüsteemi komponendi kogu tarneahela ulatuses.
- Jälgime tehisintellektisüsteeme ja selle komponente puudutavat seadusandlust. Mõistame, et on kõrgema riskiga tehisintellektisüsteeme ja nende kavandamisel ja ehitamisel haldame pidevat riske. Töötame koos kliendiga, et jätta ohtlikud funktsioonid süsteemist välja.
- Juhime klienditähelepanu valdkonnas kehtivale õigusele ning aitame tal teha teadlikke valikuid.
- Seirame enda loodud tehisintellektisüsteeme läbi kogu nende elutsükli. Kui saame teada enda loodavas või loodud tehisintellektisüsteemiga seotud ohust, teavitame oma partnerit või klienti.
Meie tehisintellektisüsteemid on läbipaistvad
- Meie loodud tehisintellektisüsteemide kirjeldustes on selgitatud, et need on tehisintellektisüsteemid. Ja kui need ei ole tehisintellektisüsteemid, siis me ka ei kutsu neid selleks.
- Meie tehisintellektisüsteemide kirjeldustes on selgitatud, millised andmed, algoritmid, tööriistad ja mudelid oleme valinud nende töö aluseks ning, teadaolevale materjalile tuginedes, milliste andmete ja algoritmidega on loodud kasutatavad masinõppemudelid.
- Selgitame, milline on meie loodud tehisintellektisüsteemides otsuste tegemise protsess.
- Kus vähegi võimalik, teeme teabe kättesaadavaks ka meie loodud süsteemide lõppkasutajatele.
Meie tehisintellektisüsteemid järgivad parimaid arenduspraktikaid
- Meie tehisintellektisüsteemides toetab tehnoloogia inimese tehtud otsuseid.
- Kui vähegi võimalik, valime tehisintellektisüsteemide ehitamisel seletavaid algoritme, mudeleid ja tööriistu.
- Tehisintellektisüsteemide loomiseks kasutame kvaliteetseid andmeid, aga täpselt nii palju kui eesmärgi saavutamiseks minimaalselt vaja ja mitte rohkem.
- Oleme teadlikud enda loodud tehisintellektisüsteemides kasutatud andmete, algoritmide, mudelite ja tööriistade kallutatusest ning teavitame sellest ka oma partnereid ja kliente.
Oleme teadlikud tehisintellekti tehnoloogiatega kaasnevatest ohtudest
- Meie tehisintellektisüsteemide arendamisel juurutatakse sobivad kaitsemeetmed uute ohtude vastu (viibasüst, mürgitatud mudelid, mudeli pööramine).
- Loome tehisintellektisüsteeme, mis ei raiska ressursse. Kasutame mudeleid ja tööriistu, mis annavad tehisintellekti positiivse efekti kestlikult.
- Keeldume loomast tehisintellektisüsteeme, mis kahjustavad meie elukeskkonda ja ühiskonda, sealhulgas nii üksikisikute kui organisatsioonide põhiõiguseid ja vabadusi.
Kui soovite leida nõu ja abi küberturvalisuse alaste küsimuste lahendamisel, leiate siit ITL-i eksperdid:
Turvalise tehisintellekti kampaania viisid ellu: