Меню
RU

Ваши личные данные стали учебным пособием для ИИ, и вам их не вернуть

Искусство подражает жизни. Но что если оно станет воспроизводить ваш образ и личную жизнь настолько хорошо, что грань между реальным и нереальным сотрётся?

Сами того не подозревая, мы становимся моделями для новейшей технологии искусственного интеллекта. Она обучается на терабайтах плохо отфильтрованных данных, собранных со всего интернета. Эти данные могут включать наши личные фотографии, медицинские изображения и даже контент, защищённый авторским правом, — в общем, всё, что когда-либо было опубликовано в сети.

Модели глубокого обучения преобразованию текста в изображение, такие как DALL-E 2, Midjourney и Stable Diffusion, всё лучше распознают, интерпретируют и используют эти данные. Получив текстовую подсказку, они создают детальные изображения на основе изученного материала. И хотя эти изображения ещё не идеальны, они становятся всё более фотореалистичными. Как бы неправдоподобно это ни звучало, однажды алгоритм может сгенерировать ваше собственное изображение — по крайней мере, этого нельзя исключать.

Вероятность того, что всё это произойдёт с обычным человеком, конечно, невелика. Однако для публичных лиц риск того, что их изображение будет использовано для обмана доверчивых людей, гораздо выше. Искусственный интеллект вдоволь наелся их открытыми данными и уже знает их в лицо, поэтому единственное, что нужно придумать злоумышленнику, — это умная текстовая подсказка.

ИИ позволяет воспроизводить внешность известных людей с всё большей точностью
Илон Маск на картине в стиле Моне и Билл Гейтс с винтовкой возле автомобиля. Изображения Stable Diffusion предоставлены компанией Stability AI.

Пока не существует способа защитить себя от попадания в поток данных ИИ. Вы можете удалить свои данные из этого импровизированного искусствоведческого кружка только постфактум, то есть после того, как они уже были использованы в качестве обучающего образца для ИИ. Для этого вам нужно найти их на сайтах типа Have I Been Trained, убедиться, что они соответствует требованиям, подать жалобу и надеяться на лучшее.

Технология: внушающая трепет и опасения

ИИ-генераторы изображений — новинка, что отчасти объясняет, почему их до сих пор не регламентировали. Один из самых известных и продвинутых инструментов для создания изображений из описания — DALL-E. Этот кодировщик текста в изображение был впервые выпущен для ограниченного круга лиц в январе прошлого года, а широкой публике стал доступен в сентябре этого года. Около 1,5 миллионов человек уже пользуются сервисом, «создавая более 2 миллионов изображений в день», если верить компании OpenAI, стоящей за этим инструментом.

После публичного релиза OpenAI сняла ограничения на редактирование человеческих лиц. Но, в отличие от большинства конкурентов, OpenAI ввела некоторые меры предосторожности. Так, компания заявила, что усовершенствовала алгоритм фильтрации ИИ, чтобы блокировать материалы на тему секса, политики, насилия и ненависти. Также политика DALL-E запрещает пользователям загружать «изображения кого-либо без их согласия» и изображения, на которые у пользователей нет прав.

Похоже, что у DALL-E нет никакого практического способа добиться соблюдения этой конкретной политики, кроме как верить пользователям на слово. Стремясь минимизировать риски возможного злоупотребления, разработчики ранее заявляли, что они доработали процесс обучения DALL-E, «ограничив» его способность запоминать лица. Это было сделано в первую очередь для того, чтобы ИИ не создавал двойников известных личностей и не помогал помещать их в не соответствующий действительности контекст. Контентная политика OpenAI запрещает изображения «политиков, урн для голосования или другого контента, который может быть использован для влияния на политический процесс или агитации» и предостерегает от попыток создания изображений публичных фигур. Пользователи сообщают, что DALL-E действительно не отвечает на запросы, в которых упоминаются знаменитости и политики.

Вопреки названию, у чудо-системы преобразования текста в изображение OpenAI нет открытого исходного кода, и на это есть веская причина. OpenAI утверждает, что «свободный доступ к необработанным компонентам системы оставляет дверь открытой для злоумышленников, которые могут обучать их на субъективно неприемлемом контенте, таком как порнография и сцены насилия».

Другие, однако, подхватили идею OpenAI. Вдохновившись DALL-E, группа ИИ-энтузиастов создала Crayion (ранее DALL-E mini), бесплатный ИИ-генератор изображений из текста с открытым исходным кодом. Но он обучается на относительно небольшой выборке нефильтрованных данных из интернета — около 15 миллионов пар изображений и соответствующих альтернативных текстов — и получаемые рисунки, особенно людей, выглядят гораздо менее реалистично.

Чем больше данных вы скормите ИИ-модели, тем лучше она станет

Гораздо более продвинутой, чем Crayion, и гораздо менее ограничивающей, чем DALL-E 2, стала Stable Diffusion — модель с открытым исходным кодом, выпущенная стартапом StabilityAI в августе этого года. Она позволяет генерировать изображения публичных лиц, протестов и несчастных случаев, которые никогда не происходили и потенциально могут быть использованы в дезинформационных кампаниях.

Модели, созданные искусственным интеллектом, могут быть использованы в кампаниях по дезинформации
Дым, поднимающийся от Белого дома, и протесты в Диснейленде. Изображения Stable Diffusion предоставлены компанией Stability AI.

Stable Diffusion разрешает распространять и продавать полученные результаты при условии, что вы согласны со списком правил. Например, вы не можете использовать модель для нарушения закона, причинения вреда несовершеннолетним, распространения фейков «с целью причинения вреда другим», «генерирования или распространения личной информации, которая может быть использована для причинения вреда человеку», предоставления медицинских консультаций, нарушения авторских прав, выдачи себя за других людей, а также «клеветы, унижения или иного преследования других». По всей видимости, бремя выявления запрещённого контента ложится на сторонних пользователей и самих жертв.

Усугубляет ситуацию (или улучшает, в зависимости от вашей позиции) тот факт, что ИИ-модели становятся всё более умело имитируют стиль человека. Полемика разгорелась после того, как непрофессиональный художник получил первый приз на конкурсе цифрового искусства на ярмарке штата Колорадо за работу, созданную с помощью Midjourney — ещё одного ИИ-инструмента для преобразования текста в изображение. Не так давно журналист The Atlantic разворошил осиное гнездо Twitter после того, как с помощью Midjourney создал два изображения сторонника теории заговора Алекса Джонса для рассылки.

Можно с уверенностью сказать, что со временем инструменты, основанные на искусственном интеллекте, станут только лучше. Исследователи, создавшие собственную ИИ-модель Google для преобразования текста в изображение, Imagen, утверждают, что она уже превосходит последнюю версию DALL-E — DALL-E 2 — по точности и качеству изображения.

Пока неясно, как синтезирующий изображения искусственный интеллект повлияет на искусство и реальность. Во многом это будет зависеть от того, удастся ли разработчикам приручить ИИ-монстра, а также от данных, которыми он будет продолжать питаться.

Откуда берутся данные?

Такие модели ИИ, как DALL-E и Stable Diffusion, обучаются на огромных массивах данных, собранных со всего интернета.

К примеру, модель DALL-E 2 обучалась на 650 миллионах пар текст-изображение, уже имеющихся в интернете. Stability AI обучалась в основном на английском подмножестве набора данных LAION-5B. LAION 5B (Large-scale Artificial Intelligence Open Network) — это открытый набор данных, содержащий 5,6 миллиарда изображений, собранных в сети. Из них 2,3 миллиарда — пары «изображение-текст» на английском языке, что делает LAION 5B крупнейшим в мире подобным открытым набором данных. Его предшественник, LAION-400, содержит 413 миллионов пар и использовался компанией Google для обучения Imagen. Этот набор данных был изначально создан исследователями в попытке повторить набор данных OpenAI, закрытый для широкой публики.

LAION описывает себя как некоммерческую организацию с миссией «демократизировать исследования и эксперименты вокруг крупномасштабного мультимодального обучения моделей». Благородная миссия, но она дорого обходится частной жизни. Данные, которые исследователи анализировали для поиска пар «изображение-текст», были получены от Common Crawl — ещё одной некоммерческой организации, которая ежемесячно просматривает веб-страницы и предоставляет петабайты данных в свободный доступ. В техническом описании Common Crawl заявляет, что они «просто нашли данные в интернете» и «не ручаются за содержание и не несут ответственности, если с ними что-то не так».

Учитывая, откуда берутся данные, неудивительно, что в них может попасть персональная информация, деликатные изображения и контент, защищённый авторским правом. В прошлом месяце ArtTechnica сообщила, как ИИ-художница обнаружила в наборе данных LAION-5B свои собственные медицинские фотографии. Фотографии были сделаны врачом художницы (ныне покойным) и предназначались только для личного пользования этого врача.

Стоит отметить, что LAION не размещает изображения, а лишь предоставляет URL-адреса, с которых их можно скачать. Соответственно, компания якобы не может нести ответственность за распространение ваших личных данных или работы. Получается, с юридической точки зрения мы упираемся в стену, пытаясь найти виновных в потенциально неправомерном использовании данных. Ещё одна проблема заключается в том, что от обучения ИИ невозможно отказаться, и вам придётся приложить усилия, чтобы удалить свои данные задним числом.

Как удалить свои личные данные из потока ИИ?

Для начала, чтобы запросить удаление ваших изображений из обучающей базы данных ИИ, вы должны их там найти. Это может показаться непосильной задачей, учитывая, что придётся перебрать миллионы пар «изображение-текст». К счастью, теперь для этого есть короткий путь. В прошлом месяце компания Spawning AI запустила Have I Been Trained? — сайт, на котором вы можете искать в базе данных LAION-5B, давая ей изображение или текстовую подсказку. Или вы можете просто поиграть с алгоритмом (осторожнее, он может выдать очень любопытные результаты).

Алгоритмы ИИ просто повторно используют данные, которые они изучили, и не всегда оказываются правы

Если вам удастся найти своё изображение, заполните форму отказа на странице LAION, посвящённой GDPR. LAION обещает изучить сообщение и, если обнаружит, что указанное изображение нарушает закон ЕС о защите данных, удалить его из всех подконтрольных хранилищ данных и из будущих релизов.

Spawning также разрабатывает инструменты, которые позволят художникам выбирать, «участвовать или нет в обучении больших моделей ИИ», а также «устанавливать разрешения на использование их художественного стиля». Пользователи могут подать заявку на бета-доступ к инструментам на сайте компании. Stable Diffusion поддерживает усилия Spawning и заявляет, что она будет создавать «систему неавтоматического выбора для художников и других людей, которую сервисы могут использовать в партнёрстве с ведущими организациями».

DALL-E позволяет людям, обнаружившим, что их работа использовалась без их согласия, сообщить о нарушении на почту OpenAI. Что касается первоисточника большей части данных, Common Crawl, похоже, там указан только почтовый ящик, куда можно сообщить о нарушении авторских прав.

Нам остаётся только гадать, не будут ли наши данные будут поглощены искусственным интеллектом. Отчасти это связано с юридическими сложностями, когда каждая сторона утверждает, что не несёт ответственности за конечный результат. Отчасти — с тем, как работает интернет, который никогда ничего не забывает.

Сгенерирует ли ИИ вашего точного двойника и сможет ли забыть, как вы выглядите?

Как видно на примере публичных лиц, при достаточном обучении ИИ может генерировать узнаваемые изображения реальных людей. Технически ничто не мешает ИИ проделать тот же трюк с вашим образом.

OpenAI признаёт, что, хотя DALL-E 2 не может «генерировать точные изображения людей, модель способна генерировать кого-то с похожими чертами из данных обучения». То же самое, вероятно, верно и для других моделей ИИ. Исследования показали, что изображения, сгенерированные другим классом моделей глубокого обучения — генеративно-состязательными сетями (Generative Adversarial Networks, GANs) — действительно похожи на реальных людей. В работе под названием «Этот человек (вероятно) существует. Атаки на идентичность лиц, сгенерированных GAN» исследователи показали, что удалось повторно идентифицировать личность тех, кто способствовал генерации изображений «несуществующих людей».

Что касается того, могут ли модели ИИ «разучиться» и забыть то, что они уже узнали о вас, генеральный директор Stability AI Эмад Мостак сказал Ars Technica, что это возможно, но требует некоторой доработки или дополнительной работы. Главный вопрос заключается в том, готовы ли разработчики приложить для этого немало усилий — ведь они не обязаны этого делать.

Решение проблемы ИИ. Миссия невыполнима?

Нельзя не признать, что результаты, достигнутые первопроходцами в области ИИ, достойны восхищения. Тот факт, что некоторые из них делают код с открытым исходным кодом, а в случае со Stability AI выпускают его под разрешающей лицензией, не запрещающей коммерческое использование, поможет исследователям, создателям и дальнейшему прогрессу.

Но это может привести и к обратному результату — очень трудно остановить злоумышленников от использования модели с открытым исходным кодом. Самое важное, пожалуй, в том, что сейчас у художников и обычных людей нет возможности отказаться от того, чтобы стать частью конечного продукта, созданного ИИ. Более того, даже если мы захотим удалить свои изображения из обучающих данных, нам придётся рассчитывать на добросовестность компаний.

С распространением технологий эти проблемы будут затрагивать всё больше людей. Так, компания Microsoft недавно объявила, что интегрирует два своих приложения в DALL-E 2. Одно из приложений — Image Creator, которое будет доступно в поисковой системе Microsoft Bing и в Edge бесплатно.

Ситуация нуждается в регулировании. Будет ли это тщательное изучение наборов данных, прозрачный механизм отказа от использования, соблюдаемый всеми сторонами, или какие-то другие методы, мы не знаем. Но в нынешнем виде ИИ-генераторы изображений в текст остаются угрозой личным данным, которая будет только расти.

Понравился пост?
25 760 25760 отзывов
Отлично!

AdGuard для Windows

AdGuard для Windows — это не просто «ещё один блокировщик». Это многоцелевой инструмент, который блокирует рекламу и доступ к опасным сайтам, ускоряет загрузку страниц и защищает детей от взрослого контента.
Скачивая программу, вы принимаете условия Лицензионного соглашения
Узнать больше
25 760 25760 отзывов
Отлично!

AdGuard для Mac

В отличие от других блокировщиков, AdGuard разработан с учётом специфики операционной системы macOS. Он не только блокирует рекламу в Safari и других браузерах, но и защищает вас от слежки, фишинга и мошенничества в сети.
Скачивая программу, вы принимаете условия Лицензионного соглашения
Узнать больше
25 760 25760 отзывов
Отлично!

AdGuard для Android

AdGuard для Android — это идеальное решение для Android-устройств. В отличие от других блокировщиков, AdGuard не требует root-доступа и позволяет управлять трафиком любых приложений на вашем устройстве.
Скачивая программу, вы принимаете условия Лицензионного соглашения
Узнать больше
25 760 25760 отзывов
Отлично!

AdGuard для iOS

Лучший блокировщик рекламы для iPhone и iPad. AdGuard устраняет рекламу в Safari, защищает ваши данные и ускоряет загрузку страниц. AdGuard для iOS использует новейшую технологию блокировки, которая обеспечивает непревзойденное качество фильтрации и позволяет применять множество различных фильтров одновременно
Скачивая программу, вы принимаете условия Лицензионного соглашения
Узнать больше
25 760 25760 отзывов
Отлично!

AdGuard Content Blocker

AdGuard Content Blocker устраняет все объявления в мобильных браузерах, которые поддерживают технологию блокировки контента — к примеру, Samsung Internet и Яндекс.Браузер. Он обладает меньшим количеством функций, чем AdGuard для Android, но при этом бесплатен, прост в установке и по-прежнему обеспечивает высокое качество блокировки рекламы.
Скачивая программу, вы принимаете условия Лицензионного соглашения
Узнать больше
25 760 25760 отзывов
Отлично!

Браузерное расширение AdGuard

AdGuard — самое быстрое и легкое браузерное расширение для блокировки всех типов рекламы! Выбирайте AdGuard для быстрого и безопасного серфинга без рекламы.
25 760 25760 отзывов
Отлично!

Помощник AdGuard

Дополнительное браузерное расширение для десктопных приложений AdGuard. Даёт доступ к таким функциям в браузере, как блокировка отдельных элементов, занесение сайта в белый список или отправление отчёта.
25 760 25760 отзывов
Отлично!

AdGuard DNS

AdGuard DNS – это альтернативный способ заблокировать рекламу, защитить личные данные и оградить детей от взрослых материалов. Он прост в настройке и использовании и обеспечивает необходимый минимум защиты от рекламы, трекинга и фишинга, независимо от платформы.
25 760 25760 отзывов
Отлично!

AdGuard Home

AdGuard Home — мощный сетевой инструмент против рекламы и трекинга. С усилением роли интернета вещей становится все более и более важным управлять всей вашей сетью. После настройки AdGuard Home будет охватывать ВСЕ ваши домашние устройства и для этого вам не понадобится программное обеспечение на стороне клиента.
25 760 25760 отзывов
Отлично!

AdGuard Pro для iOS

AdGuard Pro предлагает гораздо больше чем просто блокировку рекламы в Safari, которая есть в обычной версии. С помощью специальных настроек DNS вы сможете блокировать больше рекламы, защитить ваши личные данные и оградить детей от взрослого контента.
Скачивая программу, вы принимаете условия Лицензионного соглашения
Узнать больше
25 760 25760 отзывов
Отлично!

AdGuard для Safari

Расширения, блокирующие рекламу в Safari, переживают не лучшие времена с тех пор, как компания Apple вынудила всех использовать новый SDK. Познакомьтесь с нашим легко настраиваемым и молниеносным приложением!
25 760 25760 отзывов
Отлично!

AdGuard Temp Mail

Ваш временный почтовый ящик, чтобы на основную почту не приходил спам
25 760 25760 отзывов
Отлично!

AdGuard для Android TV

AdGuard для Android TV — единственное приложение, которое блокирует рекламу, защищает ваши данные и действует как фаервол для Smart TV. Получайте предупреждения о веб-угрозах, используйте безопасный DNS, а ваш трафик будет зашифрован. Смотрите любимые сериалы безопасно и без рекламы!
Загрузка AdGuard началась Стрелка указывает на файл: нажмите на него, и установка начнётся Выберите «Открыть», нажмите «OK» и дождитесь загрузки файла. В открывшемся окне перетащите значок AdGuard в папку «Приложения». Спасибо за выбор AdGuard! Выберите «Открыть», нажмите «OK» и дождитесь загрузки файла. В открывшемся окне нажмите «Установить». Спасибо за выбор AdGuard!
AdGuard есть и в мобильном варианте