Detroit po kolejnym aresztowaniu wskazanego przez systemy rozpoznawania twarzy, który okazał się niewinny, wycofuje się z tego rodzaju rozwiązań opartych o algorytmy i przestanie ich używać policja.
Technologie rozpoznawania twarzy są bardziej niebezpieczne niż sądzono i stwarzają poważne wyzwania dla prywatności - alarmują naukowcy. Ich badanie wykazało, że AI skutecznie odgaduje orientację polityczną na podstawie zupełnie neutralnych zdjęć.
Amerykanin z Kalifornii twierdzi, że sztuczna inteligencja i oprogramowanie do rozpoznawania twarzy błędnie wskazały go jako za winnego napadu na sklep. Domaga się 10 mln dol. odszkodowania za pobyt w więzieniu i brutalny gwałt.
Brzmiące jak science fiction narzędzia są już w użyciu przez amerykańską policję, która w oparciu o systemy wykorzystujące sztuczną inteligencję tworzy wizerunki podejrzanych. Ma to pomóc w rozwiązaniu najbardziej zagadkowych spraw.
Rodzimi inżynierowie pracują nad nowatorską platformą CompreFace, która ma stanowić milowy krok w zakresie technologii rozpoznawania twarzy. Takie systemy rozwijają Amazon czy Microsoft. Ich narzędzia są jednak płatne.
Dla niektórych to koniec prywatności, dla innych przełom w identyfikacji ofiar i przestępców. Kontrowersyjny system Clearview AI sprawdza się w Ukrainie.
Technologia rozpoznawania twarzy coraz częściej jest stosowana w USA w walce z przestępczością. Jednak wciąż jest mocno niedoskonała i brakuje jasnych przepisów, jak z niej korzystać.
Ponad 60 angielskich szkół ma wdrożyć system płatności bezdotykowych, ale działacze ostrzegają, że może to naruszać prawa dzieci do prywatności. System będzie pobierał opłatę dzięki rozpoznawaniu twarzy. Już 27 szkół stosuje to rozwiązanie.