Безопасность и этика ИИ: работа с лицами, deepfake и данные
Table of contents
Почему это важно
Нейросети стали мощными и доступными, но вместе с возможностями появились риски: утечки данных, манипуляции с лицами, юридические последствия. Мы продвигаем ответственное использование ИИ.
Персональные данные и конфиденциальность
- Загружайте только то, чем готовы делиться. Изучайте политику сервиса.
- По возможности отключайте обучение на ваших данных.
- Храните исходники локально и используйте шифрование для чувствительных материалов.
Работа с лицами: согласие и ограничения
Любые операции с лицами — только с согласия человека (модельный релиз). Изображения знаменитостей без согласия — риск нарушений права на изображение. Анимация («оживленные фотографии нейросеть») допустима для своих фото, архивов семьи (с осторожностью) и стоковых портретов с лицензией.
Что категорически нельзя
Запросы «нейросеть раздевает», «раздетые нейросетью», «нейросети раздели» — недопустимы. Это нарушает этические нормы и может подпадать под ответственность. Мы не публикуем и не рекомендуем ссылки на такие инструменты.
Deepfake: риски и ответственность
Deepfake может использоваться для сатиры и кино с участием актеров при наличии согласий. Без них — нарушение прав, репутационный вред, возможные уголовные и гражданские последствия.
Этика публикаций и подписи
- Помечайте ИИ-контент соответствующими дисклеймерами.
- Не выдавайте синтетические изображения за реальные новости.
- Уважайте авторские права и лицензионные ограничения.
Безопасные альтернативы
- Работайте с абстрактными персонажами и иллюстрациями.
- Используйте собственные изображения и лица с модельным релизом.
- Применяйте генерацию фонов и объектов вместо манипуляций с реальными людьми.
Чек-лист перед генерацией
- Есть ли у меня согласие/лицензия?
- Не нарушаю ли я чьи-то права?
- Понимаю ли я, как сервис хранит данные?
- Готов ли я подписать контент как ИИ-сгенерированный?