
Рaзрaбoтaн oнлaйн-инструмeнт Exposing.AI, спoсoбный вскрывать, испoльзoвaлись ли личныe фoтoгрaфии пoльзoвaтeля в целях oбучeния систем идентификации лиц безо его ведома..
Отмечается, чего некоторые разработчики, для обучения системы распознавания лиц, пользуются фотографиями людей с общедоступных баз или фотохостингов, в числе которых Flickr. Компьютеры но научились выявлять, применялись ли в сих целях личные фотографии пользователей кроме их согласия.
Известно, ась? сам инструмент работает для базе открытых данных, изучая идентификаторы Flickr. Разработчики сообщили, какими судьбами миллионы фотографий были использованы помимо ведома пользователей, что нарушает их полномочия.
Для проверки, были ли фотографии пользователя эксплуатированы лишенный чего его ведома необходимо включить свое имя пользователя в Flickr, URL-код фотографии. Впоследствии компьютер проанализирует в среднем 3,5 млн фотографий и выдаст совпадения.