Kako bi spriječili krađu podataka softveraši se stalno nadmudruju s hakerima. Standardni alati uključuju strategije poput sustava autentifikacije s više faktora, tehnologije otiska prsta i skeniranja mrežnice. Sve je popularnija metoda i automatska identifikacija koja koristi glas osobe kao šifru.
Hakerski alat iz željezarije
Ovi sustavi, rašireni u telefonskom bankarstvu, dobro otklanjaju napade lažiranjem glasa korisnika pomoću digitalne manipulacije. Ali inženjeri digitalne sigurnosti Sveučilišta Wisconsin-Madison pokazali su da ti sustavi nisu baš sigurni kada je u pitanju novi analogni napad.
Oni su naime otkrili da govor kroz PVC cijev kakva se može kupiti u običnoj željezari lako može prevariti algoritme strojnog učenja koji podržavaju sustave automatske identifikacije glasa. Svoje otkriće oni su predstavili na Sigurnosnom simpoziju Usenix u Anaheimu.
Dalekosežni rizici
Rizici analognih sigurnosnih rupa mogli bi biti dalekosežni. Tehnologija se već naveliko koristi, naročito u financijskim institucijama, ali i za komunikaciju s osobnim asistentima podržanim umjetnom inteligencijom kakav je Appleov Siri.
“Sustavi se oglašavaju sigurnima poput otiska prsta, ali to nije baš točno”, upozoravaju istraživači. “Svi su oni podložni napadima na identifikaciju govornika. Napad koji smo razvili vrlo je jeftin; samo nabavite cijev u željezariji i promijenite glas.”
Testiranje tuljca
Projekt je započeo kad su na sveučilištu počeli ispitivati slabosti sustava za automatsku identifikaciju govornika i istraživati je li moguće promijeniti rezonanciju ili specifične frekvencije vibracija glasa kako bi se pobijedio sigurnosni sustav.
Ideju su prvotno testirali govoreći kroz tuljce papirnatih ručnika, da bi kasnije isprobali plastične cijevi različitih promjera, kupljene u lokalnoj željezariji. Mijenjali su duljinu i promjer cijevi sve dok nisu proizvesti istu rezonanciju kao glas koji su pokušavali imitirati.
Dva razloga
Na kaju su razvili i algoritam koji može izračunati dimenzije PVC cijevi potrebne za transformaciju rezonancije bilo kojeg glasa kako bi oponašao drugi. Istraživači su uspješno prevarili sigurnosne sustave napadom plastične cijevi u 60 posto slučajeva, dok su ljudski imitatori uspjeli prevariti sustave u samo šest posto pokušaja.
Dva su razloga zašto su ovi napadi uspješni. Prvo, budući da je zvuk analogan, on zaobilazi digitalne filtre za napad glasovne provjere autentičnosti. Drugo, cijev ne transformira jedan glas u točnu kopiju drugog, već lažira rezonanciju ciljnog glasa, što je dovoljno da algoritam strojnog učenja krivo klasificira glas koji napada.