Wyrób

Rozwój sztucznej inteligencji, czyli użyteczność kontra prywatność

Rozwój sztucznej inteligencji, czyli użyteczność kontra prywatność
Rozwój sztucznej inteligencji, czyli użyteczność kontra prywatność Leszek Tasiemski – wiceprezes działu badań i rozwoju w firmie F-Secure Kraków, 9 sierpnia 2018 r. – Zobaczył

Rozwój sztucznej inteligencji, czyli
użyteczność kontra prywatność

Leszek Tasiemski – wiceprezes działu badań i rozwoju w firmie F-Secure

Kraków, 9 sierpnia 2018 r. – Zobaczył ją w tramwaju, to była miłość od pierwszego wejrzenia. Wystarczyło jedno zdjęcie wykonane ukradkiem i system sztucznej inteligencji do rozpoznawania twarzy natychmiast odszukał jej nazwisko, profile na portalach społecznościowych i dane kontaktowe. Zarysowany scenariusz może być początkiem historii miłosnej lub wizją koszmaru związanego ze stalkingiem.

Chińska policja testuje okulary z wbudowaną kamerą, połączone z systemem AI (Artificial Intelligence) do rozpoznawania twarzy. Celem jest natychmiastowa identyfikacja osób poszukiwanych przez organy ścigania. Facebook niedawno wysłał do użytkowników zapytanie o zgodę na uruchomienie funkcji rozpoznawania twarzy. Rozwijanie tego typu technologii budzi sprzeciw nawet wśród tych, którzy je opracowują. Przykładowo, pracownicy firmy Amazon wyrazili protest wobec dostarczania algorytmów detekcji twarzy dla organów ścigania. Kilka tygodniu temu ponad stu pracowników Microsoftu wysłało list, w którym sprzeciwiali się, aby firma dostarczała usługi z zakresu przetwarzania w chmurze oraz sztucznej inteligencji dla amerykańskiej służby celnej i imigracyjnej.

Wydaje się, że znowu mamy do czynienia z sytuacją, kiedy postęp technologiczny i jego nagła adaptacja wyprzedza zdroworozsądkową ostrożność. Rozwój sztucznej inteligencji i prywatność nie idą w parze. Algorytmy będą w stanie bez najmniejszego problemu rozpoznać nasz wizerunek, a nawet głos, dopasować i połączyć dane zgromadzone na rozmaitych portalach społecznościowych (oraz randkowych), rozbijając ostatecznie iluzję anonimowości w sieci. Należy też pamiętać o ryzyku związanym z coraz bardziej powszechnymi asystentami głosowymi – najczęściej ceną wygody jest prywatność i postępujące cyfrowe obnażanie się.

Prawdopodobnie w najbliższych latach będziemy świadkami rozwoju metod manipulacji opartych na sztucznej inteligencji. Możliwe jest opracowanie algorytmów potrafiących perfekcyjnie udawać głos danej osoby (na podstawie kilkusekundowej próbki), a nawet generujących wideo osoby mówiącej swoim głosem i robiącej rzeczy, których nigdy nie zrobiła, ani nie powiedziała. To bardzo potężne narzędzia, które mogłyby trafić w ręce zarówno pospolitych oszustów, jak i agencji państwowych manipulujących opinią publiczną. Odróżnienie prawdy od fałszywej informacji (fake news) będzie coraz trudniejsze, może nawet niemożliwe.

A to już wiesz?  ERICSSON PODPISUJE SETNY KOMERCYJNY KONTRAKT 5G

Należy pamiętać, że twórcy rozwiązań wykorzystujących sztuczną inteligencję kierują się dobrymi intencjami, a ich motywacją jest zapewnienie wsparcia dla człowieka na różnych płaszczyznach życia. Możliwość podyktowania treści maila lub listy zakupów nawet w trakcie jazdy samochodem, zidentyfikowanie twarzy poszukiwanych przestępców dzięki inteligentnym systemom monitoringu czy odnalezienie starego przyjaciela – to tylko część funkcjonalności, które mają szansę poprawić naszą wydajność, bezpieczeństwo publiczne oraz kontakty międzyludzkie.

Zanim jednak inteligentne systemy staną się nieodzowną częścią naszego życia, warto rozważyć zarówno korzyści, jak i zagrożenia oraz upewnić się, że poświęcamy należytą uwagę środkom bezpieczeństwa. Obecnie większość technologii AI ma jedynie włącznik – używamy ich na sto procent albo wcale. Z czasem możemy się spodziewać rosnącej liczby ustawień pozwalających określić, jak dużo informacji o sobie chcemy udostępniać. Jako użytkownicy powinniśmy wymagać takiej możliwości od dostawców rozwiązań. Wtedy po dwóch stronach na szali stanie użyteczność oraz prywatność – istotne jest to, abyśmy sami mogli decydować o przechyleniu tej szali.

Informacje o ekspercie:
Leszek Tasiemski jest wiceprezesem działu badań i rozwoju w F-Secure, odpowiedzialnym między innymi za Rapid Detection Center oraz opracowywanie nowych rozwiązań związanych z wykrywaniem i zwalczaniem cyberzagrożeń. Posiada wieloletnie doświadczenie w przeprowadzaniu testów penetracyjnych oraz analiz powłamaniowych, głównie dla europejskiego sektora finansowego. Entuzjasta zastosowań sztucznej inteligencji w wykrywaniu cyberataków. Absolwent Informatyki, Ekonomii oraz MBA. Obecnie studiuje psychologię. Działa również jako mentor dla start-upów i jest certyfikowanym nauczycielem jogi.

Informacja o F-Secure
Od trzech dekad F-Secure wprowadza innowacje w dziedzinie cyberbezpieczeństwa, chroniąc dziesiątki tysięcy firm i miliony użytkowników. Wykorzystując ogromne doświadczenie, F-Secure chroni przedsiębiorstwa i konsumentów przed wszelkimi zagrożeniami – od zaawansowanych cyberataków i naruszeń bezpieczeństwa danych po powszechne ataki ransomware. F-Secure łączy potęgę systemów uczących się i wiedzę ekspertów pracujących w znanych na świecie laboratoriach bezpieczeństwa, tworząc spójne podejście określane jako Live Security. Eksperci ds. zabezpieczeń z F-Secure uczestniczyli w większej liczbie dochodzeń związanych z cyberprzestępczością niż pracownicy jakiejkolwiek innej firmy na rynku, a jej rozwiązania są sprzedawane na całym świecie przez ponad 200 operatorów i tysiące resellerów.

A to już wiesz?  Wzmacniacz Słuchawkowo-Głośnikowy z DAC

Firma F-Secure powstała w 1988 roku i jest notowana na Helsińskiej Giełdzie Papierów Wartościowych w ramach indeksu NASDAQ OMX Helsinki Ltd.

f-secure.com | twitter.com/fsecure | facebook.com/f-secure

Artykuly o tym samym temacie, podobne tematy