Dirbtinių neuroninių tinklų modeliais plačiai dalijamasi viešosiose saugyklose, todėl kyla grėsmė, kad jų parametrų failai gali būti išnaudoti kenkėjiškam turiniui slėpti ir platinti. Šiame straipsnyje analizuojamas erdvinės srities steganografijos pritaikymas dirbtiniuose neuroniniuose tinkluose, vertinant tiek informacijos paslėpimo, tiek jos aptikimo galimybes. Nustatyta, kad vaizdų klasifikavimo modeliuose galima modifikuoti bent pusę jų talpos reikšmingai nepabloginant klasifikavimo tikslumo. Įterpto turinio aptikimui taikyti mašininio mokymosi metodai, su kuriais pasiektas 90,2 % tikslumas modifikacijų aptikimo užduotyje. Rezultatai rodo, kad tinklų parametruose galima paslėpti informaciją, tačiau tokios modifikacijos gali būti aptinkamos.

Šis darbas apsaugotas Creative Commons priskyrimo 4.0 viešąja licencija.