в целях обеспечения безопасности ресурса нам необходимо убедиться, что вы человек. Пожалуйста введите защитный код, расположенный ниже и нажмите кнопку "Submit". Этот текст мало кто будет читать и мы можем написать здесь все, что угодно, например... Вы живете в неведении. Роботы уже вторглись в нашу жизнь и быстро захватывают мир, но мы встали на светлый путь и боремся за выживание человечества. А если серьезно, то... В целях обеспечения безопасности сайта от кибератак нам необходимо убедиться, что вы человек.
// Дальше — 4pda.ru
С каждым днём сохранить конфиденциальность и личную информацию в сети становится всё сложнее. Новый инструмент Exposing.AI позволяет каждому узнать, использовались ли его личные фотографии для обучения систем распознавания лиц на базе ИИ.
Многие даже не задумываются, откуда разработчики программ распознавания лиц берут снимки для обучения своих продвинутых алгоритмов. Как оказалось, некоторые из них обращаются к общедоступным базам, а другие — к фотохостингам, например Flickr. Программа Exposing.AI создана с одной целью: убедиться, что личные фотографии не использовались без вашего ведома.
Exposing.AI использует открытые базы данных, анализируя идентификаторы Flickr. Алгоритм исключает систему распознавания лиц. По словам разработчиков, миллионы изображений получены без согласия пользователей. Это нарушает права людей, поскольку они не давали разрешения на работу с биометрикой. Мало того, никто не занимается контролем подобных нарушений, а фотографии берутся напрямую из социальных сетей и фотохостингов.
Один из пользователей, который уже отсканировал свою учётную запись, нашёл множество совпадений. К сожалению, даже если обнаружен сам факт подобных злоупотреблений, сделать с этим пока ничего нельзя.